此次利用该AI技术实施犯罪的严重程度,直接被网友称为“韩国N号房2.0”,其魔爪甚至伸向了不少未成年人!
此事影响巨大,直接登上了各大热搜、热榜。
早在今年5月份,韩联社就报道过一则新闻,内容是:
首尔大学毕业生朴某和姜某涉嫌于2021年7月至2024年4月期间,利用换脸技术合成淫秽照片和视频,并在通讯软件上私自传播,受害女性多达61人,其中包括12名首尔大学学生。
朴某独自制作了约400个色情视频和照片,并与同伙散发了1700多条色情内容。
然而此次事件只是韩国疫情的冰山一角。
就在近日,与此相关的更多惊悚内幕陆续被揭开。
例如韩国女性人权研究院公布了一组数据:
自今年1月1日至上周日,共有781名受害者在网上寻求帮助,其中288人(36.9%)为未成年人。
而这个“N号房间2.0”同样是一个非常恐怖的存在。
进一步报道:
一个与该病毒有关的聊天室吸引了一些人,他们通过篡改妇女和女孩的照片来创建和分享虚假图片,受害者包括大学生、教师甚至军人。
不仅受害者是未成年人,施暴者中还有大量青少年。
不仅如此,舆论崛起的过程也极其戏剧化。
因为引发此次事件的韩国男人(以下简称韩男)可以说非常猖狂,一有舆论苗头,他们就会稍微“收敛”一下:
一些韩国男性对此事也持恶劣态度,有初中男生甚至公开留言:“别担心,你还没漂亮到被强奸的程度。”
于是,朝鲜女性(以下简称朝鲜女性)的反攻开始了。
他们转向韩国以外的社交媒体。例如,在 X 上,有人发布了学校的地图:
还有一名韩国女子在微博上发布“求助帖”:
随着舆论在各大社交媒体发酵,韩国政府也发表声明:
超过 200 所学校受到影响;计划将该罪行的监禁刑期从五年增加到七年。
据了解,韩国警方已成立专门工作组,应对深度伪造犯罪等伪造视频案件,工作组将运作至明年3月31日。
已经逐渐演变
事实上,最新技术已经发展到了“令人恐惧”的阶段!
图片分享公司 AI Flux 以一组真假难辨的 TED 演讲照片,吸引数百万(前 )网友在线打假。(左侧图片由 AI 生成)
马斯克的深夜直播也吸引了数万人观看、打赏,甚至和网友一起开启了直播带货。
要知道,整个直播过程中,只需要一张图片就可以实现实时换脸。
这一切确实如网友所说,科幻变成了现实。

其实,该词起源于2017年,当时有用户“将色情女星的脸换成了一些知名的美国演员,引发争议。
这项技术可以追溯到2014年,当时他和他的同事发表了世界上第一篇介绍GAN的科学论文。
当时有迹象表明,GAN 可以生成高度逼真的人脸。
后来随着深度学习技术的发展,自编码器、生成对抗网络等技术逐渐被运用到机器学习中。
我先简单介绍一下背后的技术原理。
例如伪造视频。
其核心原理是利用深度学习算法,将目标物体的脸部“嫁接”到被模仿的物体上。
由于视频是由一系列图片组成的,因此只需要替换每张图片中的人脸,就可以得到一个脸部变化后的新视频。
这里使用自动编码器来输入视频帧,并在应用时对其进行编码。
△
图片来源:维基百科
它们由一个将图像降低到低维潜在空间的编码器和一个从潜在表示重建图像的解码器组成。
简单来说,编码器将一些关键的特征信息(比如面部特征,身体姿势)转换成低维的潜在空间表示,而解码器则从潜在表示中恢复图像以供网络学习。
另一个例子是伪造图像。

这里主要使用的方法是生成对抗网络(Gan),这是一种无监督学习的方法,通过让两个神经网络相互竞争来进行学习。(这种方法也可以用来伪造视频)
第一个算法称为生成器,它接收随机噪声并将其转换为图像。
然后将该合成图像添加到真实图像流(例如名人图像)中,并将其输入到称为鉴别器的第二个算法中。
鉴别器试图区分样本是真实的还是合成的,每当它注意到两者之间的差异时,生成器就会进行相应的调整,直到最终重现真实图像,使鉴别器无法再分辨出差异。
然而,除了外观上难以区分之外,现在的版本却打出了“组合拳”。
语音克隆功能也升级了,现在你只要提供几秒钟的原声,就能找到一个AI工具,瞬间复制你的声音。
假冒明星使用合成声音的案例也屡见不鲜。
此外,通过一张图片生成视频已经不再是新鲜事,目前的重点是后续的打磨,比如让表情、姿势看起来更自然。
其中一项是唇形同步技术(Lip),这项技术可以让Leo说话。
如何辨别?
虽然现在已经很逼真了,但是下面我还是会向大家介绍一些识别技巧。
目前网上讨论的各种方法可以概括如下:
不寻常或尴尬的面部姿势
不自然的身体动作(肢体扭曲)

不自然的色彩
音频不一致
不眨眼的人
皮肤的衰老与头发和眼睛的衰老不一致
眼镜要么没有眩光,要么眩光太多,并且无论人如何移动,眩光角度都保持不变。
放大后视频看起来很奇怪
…
好吧,就连列文虎克看过之后都会称其为专家,不过用肉眼观察确实有点累啊!
更有效的做法是以魔法打败魔法——用人工智能检测人工智能。
国内外知名科技公司均已采取相关行动,如微软开发了身份认证工具,可以对照片或视频进行分析,并给出评分,判断是否被篡改。
此前还发布了一款由AI图像生成器DALL-E 3创建的图像检测工具。
在内部测试中,该工具 98% 的时间能够正确识别由 DALL-E 3 生成的图像,并且能够以最小的影响处理压缩、裁剪和饱和度变化等常见修改。
芯片制造商英特尔使用算法分析图像像素来确定某物是真是假。
在国内,商汤科技的数字水印技术可以将特定信息嵌入到多模态数字载体中,支持图片、视频、音频、文本等多模态数字载体,官方称该技术可以在不损失图片质量的情况下,保证99%以上的水印提取准确率。

当然,位之前就介绍过非常流行的识别AI原始图像的方法——调整饱和度来检查人的牙齿。
当饱和度调到最大的时候,AI人像的牙齿会变得很奇怪,边界也变得模糊。
就在昨天,有一篇文章发表专门讨论这个问题。
文章认为,所面临的挑战是对科学研究的完整性的挑战——科学需要信任。
具体而言,现实中的欺诈行为及其检测的困难进一步威胁了人们对科学的信任。
面对这一挑战,我们认为应该“两头抓”:一是所采用的技术伦理标准,二是研发精准的检测工具。
在讨论其与教育发展的关系时,文章认为:
虽然它们对科学研究和交流的完整性构成了重大风险,但它们也提供了教育机会。
科学和教育界的未来影响将取决于他们如何应对这些挑战并利用这些机遇。
有效的错误信息检测工具、合理的道德标准和基于研究的教育方法可以帮助确保科学得到促进而不是受到阻碍。
总之,技术路径千万条,但安全第一。
还有一件事
当我们要求它翻译相关事件的内容时,它会做出如下响应:
嗯,连AI都觉得不合适。


