深度伪造技术 Deepfake,再一次深陷舆论风波之中。
据报道,韩国有人利用 AI 技术制作不雅照片和视频,并在聊天室内分享。
聊天室内有超过 3700 名成员,每个人都至少提交了 10 张他们认识的女性的照片,并通过了面试才能进群。
很多未成年人把手伸向身边的同学,即使是一张普普通通的生活照,在 AI 软件的帮助下也能轻松制作出她们的“淫秽视频”。
而更加绝望的是,根据韩国警方的统计,抓捕的 120 名虚假视频犯罪嫌疑人中,青少年几乎占75.8%。
这次事件,因为情况严重,被网友直呼“韩国 N 号房 2.0”。
据韩联舍一篇名为《超过3/10的受害者是未成年》的报道中指出:
目前,共有 781 名深度伪造受害者在线求助,其中 288 人(36.9%)是未成年人。
韩国国内舆情上来了,这些人就消停一阵,然后过阵再卷土重来。
见韩国国内进展缓慢,韩国女性们开始反击,将阵地转移到海外社交媒体上,于是有了这些“求助帖”,并登上热搜:
现在 DeepFake 技术进化神速,像这种直播换脸,也能做到实时了:
甚至还有人换脸成马斯克进行直播:
Google DeepMind 团队在本月研究发布的一篇关于研究人们如何滥用生成式 AI 的论文指出。
所谓的极具亲密性的图像、视频,用 AI 制作的“淫秽视频”都不是首要问题,真正危险的地方在于假冒他人身份。
这是一件很可怕的事,身份被别人随意操控。
关于如何检测 DeepFake 图像一直是一个热点话题,比如根据牙齿判断,把图像饱和度拉满,AI人像的牙齿就会变得非常诡异,边界模糊不清。
对于换脸的图片,会存在一些问题:
- 不自然的眼球运动和眨眼
- 尴尬的面部表情或嘴部动作
- 肤色、光线或阴影不一致
- 模糊和视觉伪影
用 AI 检测 AI 的方法是可行的,但这类的检测工具依然存在问题,这方便了深度伪造技术的进一步对抗训练,从而导致 DeepFake 技术再度进化。
这是一个对抗学习的过程,就像验证码识别的发展过程一样。
最初验证码很简单,只需要几个数字,但随着破解技术的进化,验证码越来越复杂,以至于到最后人类都很难操作。
DeepFake 工具和 DeepFake 检测工具,也会面临这样的局面。
在 Science 上的一篇文章是这样说的:
- 面对这一挑战,应该做两手准备:
- 建立 DeepFake 的技术道德标准
开发精准的 DeepFake 检测工具
不过我个人感觉,技术道德标准应该约束不了这些人。
法律约束应该也同步进行,尽早完善相应法律。
对于韩国 N 号房 2.0,你怎么看?