AI换脸「Deepfakes」技术未来的3大真正危险-今日播报
制造虚假图像的Deepfake技术(深度伪造技术) 玩起来很有趣,但它潜在危害是巨大的。
Deepfake生成图像的迹象过去很容易被发现,但生成式人工智能让我们质疑我们现在所见所闻的一切。随着每一个新的 AI 模型的发布,虚假图像的迹象都在减少,更让人困惑的是,你现在可以在几秒钟内创建 deepfake 视频、你所爱之人的声音克隆以及伪造文章。
【资料图】
为了避免被 AI deepfakes 技术愚弄,有必要了解它们会带来什么样的危险。
Deepfakes技术的演变
Deepfake 显示一个人正在做现实生活中从未发生过的事情。这完全是假的。当 deepfakes 作为模因或笑话在互联网上分享时,我们会嘲笑它们,但当它们被用来误导我们时,很少有人觉得这很有趣。
过去,deepfakes 是通过拍摄现有照片并在 Photoshop 等图像编辑软件中对其进行修改而创建的。但 AI deepfake 的不同之处在于它可以使用深度学习算法从头开始生成。
词典中将 deepfake 定义为:
令人信服地修改和操纵的图像或录音,以误传某人正在做或说的事情,实际上某人并未做过或说过。
但随着人工智能技术的进步,这个定义开始显得过时了。通过使用 AI 工具,deepfakes 现在包括图像、文本、视频和语音克隆。有时,会同时使用所有四种 AI 生成模式。
因为它是一个自动化的过程,使用起来非常快速和便宜,所以它是以我们以前从未见过的速度大量制作 deepfakes 的*工具——所有这些都不需要我们知道如何编辑照片、视频或音频.
AI Deepfakes 的巨大危险
许多AI 视频生成器已经存在,还有大量AI 语音生成器。加入像 GPT-4 这样的大型语言模型,你就有了创建迄今为止我们在现代历史上看到的最可信的深度造假的方法。
了解不同类型的 AI deepfakes,以及它们可能如何被用来欺骗你,是避免被误导的一种方法。这里是几个严重的例子,说明 AI deepfake 技术如何构成真正的威胁。
1. 人工智能身份盗窃
你可能见过他们。在世界范围内*批真正病毒式传播的 AI deepfakes 包括唐纳德特朗普被捕的照片,以及身穿白色羽绒服的教皇方济各的照片。
虽然这似乎是对一位著名的宗教人物在罗马寒冷的日子里可能会穿什么的天真无邪的重新想象;另一张图片显示的是一名政治人物在严重的违法情况下被捕,如果被认为是真实的,后果会严重得多。
到目前为止,人们在创建 AI deepfakes 时主要针对名人、政治人物和其他知名人士。在某种程度上,这是因为名人在互联网上有大量他们的照片,这可能首先有助于训练模型。
对于像 Midjourney 这样的 AI 图像生成器——用于特朗普和教皇的深度造假图像——用户只需输入描述他们想要看到的内容文本。关键字可用于指定艺术风格,例如照片或照片写实主义,并且可以通过提高分辨率来微调结果。
人们可以轻松地学习使用 Midjourney并自己进行测试,但出于明显的道德和法律原因,人们应该避免公开发布这些图像。
不幸的是,作为一个普通的、不知名的人也不能保证你不会受到 AI deepfakes 的侵害。
问题在于 AI 图像生成器提供的一个关键功能:上传你自己的图像并使用 AI 对其进行操作的能力。而像DALL-E 2 中的 Outpainting这样的工具可以通过输入文本提示并描述你想要生成的其他内容来扩展现有图像的边界。
如果其他人用你的照片做这个,危险可能比穿白夹克的教皇的深度伪造图像要大得多——他们可以在任何地方使用它,假装是你。虽然大多数人通常出于善意使用人工智能,但很少有限制阻止人们使用它造成伤害,尤其是在身份盗用的情况下。
2. Deepfake 语音克隆诈骗
在 AI 的帮助下,deepfakes 跨越了我们大多数人都没有准备好的界限:假声音克隆。只需少量原始音频——可能来自你曾经发布的 TikTok 视频,或者你出现在其中的 YouTube 视频——人工智能模型就可以复制你*的声音。
想象一下接到一个听起来就像家人、朋友或同事的电话,既不可思议又令人恐惧。Deepfake 语音克隆是一个非常严重的问题,联邦贸易委员会 (FTC)已就此发出警告。
不要相信声音。打电话给应该与你联系的人核实故事。使用你知道是他们的电话号码。如果你无法联系到你所爱的人,请尝试通过其他家庭成员或他们的朋友与他们取得联系。
《华盛顿邮报》报道了一个案例,一对 70 多岁的夫妇接到了一个听起来像他们孙子的人打来的电话。他在监狱里,急需保释金。没有其他理由怀疑他们在和谁说话,他们就把钱交给了骗子。
面临风险的不仅仅是老一代,卫报报道了另一个例子,一位银行经理在他们认为是银行董事的人发出一系列“伪造的电话”后批准了一笔 3500 万美元的交易。
3.大量生产的假新闻
像ChatGPT这样的大型语言模型非常非常擅长生成听起来像人类的文本,而我们目前没有有效的工具来发现差异。在错误的人手中,假新闻和阴谋论的制作成本很低,揭穿的时间也更长。
传播错误信息当然不是什么新鲜事,但2023 年 1 月在 arXiv 上发表的一篇研究论文解释说,问题在于使用 AI 工具扩大输出是多么容易。他们将其称为“人工智能产生的影响力运动”,他们说,例如,政治家可以利用它来外包他们的政治运动。
结合多个 AI 生成的源创建一个高级 deepfake。例如,人工智能模型可以生成一个写得很好且令人信服的新闻故事,以配合唐纳德特朗普被捕的虚假形象。与单独共享图像相比,这赋予了它更多的合理性。
假新闻不仅限于图像和文字,人工智能视频生成的发展意味着我们看到更多的深度伪造视频出现。这是 Robert Downey Jr. 移植到 YouTube 频道 Deepfakery 发布的 Elon Musk 视频中的其中一个。
创建 deepfake 就像下载应用程序一样简单。人们可以使用 TokkingHeads 之类的应用程序将静止图像转换为动画化身,这样人们就可以上传自己的图像和音频,使人看起来就像在说话。
在大多数情况下,它既生动又有趣,但也有潜在的麻烦。它向我们展示了使用任何人的形象是多么容易,使它看起来好像那个人说出了他们从未说过的话。
不要被 AI Deepfake 愚弄
Deepfakes 可以以极低的成本快速部署,并且所需的专业知识或计算能力也很低。它们可以采用生成的图像、语音克隆或 AI 生成的图像、音频和文本组合的形式。
过去制作 Deepfake 更加困难和劳动密集,但现在,随着大量 AI 应用程序的出现,几乎任何人都可以使用用于创建 Deepfake 的工具。随着 AI deepfake 技术变得越来越先进,值得密切关注它带来的危险。
关键词: