给“深度伪造”这匹“野马”拴上缰绳

发布时间:2024-12-22 22:29:47 来源: sp20241222

  【今日视点】

  ◎本报记者 刘 霞

  利用生成式人工智能(AI)制造的虚假图片、音频和视频信息等“深度伪造”内容正在快速传播,被用来骚扰他人、诈骗金钱,甚至干扰选举。

  英国《新科学家》网站近日报道,美国OpenAI公司的文本—视频模型Sora横空出世,让人们能更快捷、更廉价地制作出视频,事实与虚构的分界线也愈加模糊,进一步加剧了人们对“深度伪造”内容的忧虑,担心其引发虚假和错误信息泛滥。如何预防和阻止“深度伪造”内容误导大众,已成为摆在各国政府和科技巨头面前的重大难题。

  “深度伪造”愈演愈烈

  2014年,随着生成对抗网络的发展,第一波“深度伪造”内容开始获得关注。生成对抗网络是一种让AI模型相互对抗的技术,这种技术不断发展,可逐步提高虚假图片的真实性。但这一代“深度伪造”内容制造不仅费时,而且需要创作者具备AI方面的技术专长。

  美国纽约州立大学布法罗分校计算机与电子工程系教授吕思伟指出,在这段时间,制作一段30秒的视频通常需要数周的数字后处理工作和大量计算能力。尽管如此,视频的真实性仍差强人意。

  但在过去两年间,新型AI技术的快速商业化使“深度伪造”内容很容易大批量生产。任何具备文本编写能力的人,都可使用DALL-E、Stable Diffusion等工具,在几秒钟内创建出图像。还有一些工具,能让用户通过上传或录制音频样本来克隆语音。

  有研究发现,2023年网上有超过9.5万个“深度伪造”视频,比2019年增长了550%。有研究显示,以对特定受众造成冲击力为目的的虚假信息传播非常容易,速度可达真实信息传播速度的6倍。

  虚假视频影响选举

  “深度伪造”内容也通过错误信息和虚假信息对选举构成越来越大的威胁,使选举更加复杂化。

  去年2月,美国芝加哥市长初选前夕,社交媒体上流传一个模仿候选人保罗·瓦拉斯的声音发表不实陈述的视频,声称“警察可随意射杀嫌疑人”,并呼吁削减警察预算。在瓦拉斯向社交媒体平台发出投诉之后,社交媒体删除了这段视频,但该视频在下架前已经被浏览了数千次。

  今年1月底,新罕布什尔州检察长办公室发布一份声明称,一项机器人电话活动使用了由“深度伪造”技术制作的模仿拜登总统的声音,敦促人们不要在该州1月23日的总统初选中投票。该事件迅速在美国引起了广泛关注,并激发了关于AI“深度伪造”对大选可能产生影响的讨论。

  去年11月发布的一份民调结果显示,在2023年10月参与调查的美国成年人中,有58%的人认为“AI将对2024年美国大选造成影响”,这一数字较2022年8月增长了5个百分点。此外,英国、印度、尼日利亚、苏丹、埃塞俄比亚和斯洛伐克等国去年都发现了据称利用AI制作并在网络上传播的虚假政客视频。

  亟待采取监管措施

  《新科学家》网站在报道中指出,很多人已经感受到了“深度伪造”可能带来的巨大影响,但眼下的预防措施还很不够。

  欧盟的《数字服务法》要求科技平台识别和标记AI生成的内容,美国也正在制订类似的标准。此外,目前已有多个国家以及美国至少有6个州将创建或传播有害的“深度伪造”内容确定为非法行为。

  科技平台需要承担起阻止“深度伪造”浪潮继续奔涌的最大责任。据《金融时报》报道,亚马逊、谷歌、元宇宙平台、微软、TikTok和OpenAI等20家科技公司2月16日在慕尼黑安全会议期间表示,将共同努力打击旨在误导选民的内容制作和传播,并针对这些内容以“迅速和适当”的方式采取行动。比如,在图片中添加水印,以明确其来源以及是否曾被篡改。

  目前,科技行业已经采用了“内容来源和真实性联盟”(C2PA)的标准,该标准将用数字内容的来源和创建者的信息对数字内容进行编码。今年2月初,元宇宙平台公司宣布将在其社交媒体平台上标记AI生成的图像;谷歌公司表示将为其生成式AI工具集成C2PA水印系统,OpenAI也作出了类似承诺。

  不过,有专家指出,添加水印的方式可能会有所帮助,但它们并不能阻止不怀好意者使用开源AI工具,也没有解决那些饱受“深度伪造”影响的人保护其隐私权的问题。 【编辑:卞立群】