关于zkDID想法,(1)国际版本:

1.多种活体识别算法的聚合,避免因为一种SDK或方法的伪造。

2.比对人脸前,是用户在移动端输入了个人的姓名或者其他唯一信息,才能开始识别。不是对人进行全网检索。因此他要输入准确映射信息。

3.可私钥恢复

4.兼容提案EIP4367

5.我们已经在钱包层面 dock+valid3,认证方面我们再有一点点创新,我觉得,我们能说服洪总他们了。worldcoin对我们的启发在于是活体的认证;dock的启发在于他把钱包工具化做的完备https://github.com/docknetwork

****几种防欺诈

1.防止硅胶脸套,这样百度的瞳孔颜色反射有效;应识别人的脸上血压变化

2.防止AIfake的三维或视频人,这种百度有效;应识别瞳孔或面部反射光颜色

3.声音已被证明很容易fake,声音的意义不大

4.手机的后置摄像头可以同步识别人的手指生物信息,如血流动等。

3.实时炫瞳活体检测(推荐)通过屏幕上闪烁不同颜色的光线,判断当前用户是否真人操作。通过颜色活体进行面部反光鉴别的同时,百度特加入独有的瞳孔反光识别,提升整体的攻击拒绝率指标。注意:SDK的活体仅检测动作的通过情况,虽然对静态活体攻击防御效果基本为100%,但并不对视频和真人做出区分,一定要配合在线活体接口一起使用,不可单独使用。

****考虑去中心化活体认证方案

2.能否去中心化的活体识别,怎样部署防止隐私信息泄露。或者本地移动端就可以具备计算量。因为认证过的个人照片是可以获取到本地的。本地下载的是原始照片还是照片信息?我觉得可以考虑信息。

(2)国内版本:

5.国内我们在纯web3的公链版本,加上唐博士解决方案+人民币支付+金沙江拍照,打通国内和国际。

6.国内版本,用户手机注册,导出私钥助记词时,强制用户设置2FA验证才能导出。手机验证码是其中之一。导出后助记词具有和活体认证一样的等效权限。但是助记词有了,再下载新的APP导入,用户一样需要2FA输入(至少其中一个验证),防止助记词丢失的危害,也防止手机不能验证的时候。让用户在注册时,未导出助记词时,操作是简便的,一旦开始操作助记词要变得严肃和安全。

worldcoin

A.有关活体认证

百度AI的活体识别-反射光 (2)

https://github.com/ZitongYu/DeepFAS

https://github.com/3DiVi/face-sdk

https://github.com/deepinsight/insightface

https://onfido.com/solutions/biometric-verification/

https://sensity.ai/deepfakes-detection/#

https://github.com/topics/anti-spoofing

https://github.com/topics/face-anti-spoofing

https://github.com/minivision-ai/Silent-Face-Anti-Spoofing

https://github.com/iperov/DeepFaceLab 伪造

B.有关隐私计算活体认证

https://github.com/Tencent/TFace/tree/master/recognition/tasks/dctdp 腾讯人脸

C.有关DID开源方案

https://www.spruceid.dev/didkit/didkit

https://authjs.dev/getting-started/oauth-tutorial#installing-nextauthjs

https://valid3.id/ 用于机构声明公开

https://www.idnow.io/products/identity-wallet/

Meta 在论文中发布的新模型名叫 Segment Anything Model (SAM) 。他们在博客中介绍说,「SAM 已经学会了关于物体的一般概念,并且它可以为任何图像或视频中的任何物体生成 mask,甚至包括在训练过程中没有遇到过的物体和图像类型。SAM 足够通用,可以涵盖广泛的用例,并且可以在新的图像『领域』上即开即用,无需额外的训练。」在深度学习领域,这种能力通常被称为零样本迁移,这也是 GPT-4 震惊世人的一大原因。

https://mmbiz.qpic.cn/mmbiz_png/KmXPKA19gWicQXBy97g2ehW9sicNDOKCJmmLqG6dPxVpWMsFic0T1USHvBo2gd8RquOLorUjXSMu7KdtHwibwvDzqg/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

除了模型,Meta 还发布了一个图像注释数据集 Segment Anything 1-Billion (SA-1B),据称这是有史以来最大的分割数据集。该数据集可用于研究目的,并且 Segment Anything Model 在开放许可 (Apache 2.0) 下可用。