人工智能与妖怪出瓶
财经与科技
20分钟阅读
人工智能与妖怪出瓶从好莱坞和华盛顿到社交媒体时间线和全球网络,“deepfake”--源自 “深度学习 ”和 “假冒”--和其他人工智能(AI)驱动的合成媒体内容的扩散速度超乎我们的想象。
2024年11月27日拍摄的照片显示了美国人工智能研究机构OpenAI开发的ChatGPT应用程序的标志(左)和法兰克福am Main,西德的笔记本电脑屏幕上的AI字母(右)。 (照片由Kirill KUDRYAVTSEV / AFP拍摄)
14 小时前

从好莱坞和华盛顿到社交媒体时间线和全球网络,“深度伪造”--源自 “深度学习 ”和 “假冒”--和其他人工智能(AI)驱动的合成媒体内容的扩散速度超乎了我们的想象。

仅 2023 年,就发现至少有 95,820 个深度造假视频泄露到互联网上。

是的,看到普利策奖得主说唱歌手肯德里克·拉马尔 (Kendrick Lamar) 在他 2022 年的歌曲《The Heart Part 5》中变身为坎耶 (Kanye)、威尔·史密斯 (Will Smith) 和尼普西 (Nipsey) 等人,可能会很酷又有趣。如果您仍然对《权力的游戏》的标志性结局不满意,那么当您重新观看琼恩·雪诺为该剧最后一季的剧本道歉的假视频时,您甚至可能会感受到一种宣泄。

但是,当这种人工智能操纵被用于更恶意的目的时,会发生什么呢?数据和调查显示,大多数人无法可靠地识别深度伪造的视频,还有一些人一开始以为视频是真的,后来才发现是假的。

大多数人认为深度伪造的危害在于政治造谣。但这种技术也经常被用来骚扰和剥削女性,包括流行歌星泰勒-斯威夫特(Taylor Swift)。事实证明,即使是名气和特权也无法拯救斯威夫特,使她免于成为未经其同意而制作的色情内容的目标。

“拉瓦尔大学信息与传播系助理教授索菲-图平(Sophie Toupin)告诉《TRT World》:"不幸的是,我们不应该对深度伪造技术被用来贬低女性感到惊讶。

1 月下旬,当这位 “反英雄”(Anti-Hero)女歌手的露骨性爱图片在社交媒体上疯传时,斯威夫特的热情粉丝群(被称为 “Swifties”)动员了起来。粉丝们在 X 平台上大量散发斯威夫特的正面画面,并举报分享深度伪造内容的账号。#ProtectTaylorSwift(保护泰勒-斯威夫特)成为了热门话题。

图平认为,斯威夫特粉丝的这一反应具有重要的社会和文化意义。它有助于建立可接受和不可接受使用人工智能生成的合成媒体的规范--无论你是否是世界上最大的流行歌星之一。

“图平说:"虽然这种快速反应非常成功,但重要的是要认识到,并不是每个人都能获得如此强大的社区支持。“泰勒-斯威夫特(Taylor Swift)的粉丝社区是女权主义者作出反应的杰出典范,她们明确表示:'这是不可接受的。我希望所有遭受这种有辱人格行为的妇女和女孩都能得到类似的支持。图平补充说:"事实上,这种社区层面的团结正是我们对网上厌恶女性和种族主义的虚假人工智能内容说‘不’所需要的。

简单地说,“深度伪造 ”是一种基于人工智能的合成媒体,它在视频中用另一个人取代一个人的脸和外表。

该领域首次兴起是在 2017 年,当时 Reddit 上一位化名“Deepfakes”的用户发布了未经同意且经过数字修改的成人内容,将名人的面孔叠加到成人电影中女性的身体上。

该用户在 Vice 的 Motherboard 采访中表示,他使用了多个开源库(例如 Google 免费提供的 TensorFlow)来创建视频。

“从技术角度来看,记住这一点非常重要: 图平解释说:"许多人之所以能够轻而易举地创建人工智能生成的深度伪造内容,是基于现有人工智能软件所提供的能力。图平解释说:"这些软件是根据我们这些互联网用户在过去二十年中制作和分享的大量内容训练出来的。这是需要牢记的重要一点。”

斯威夫特事件发生后,立法者和普通公民都呼吁加强对这些基于人工智能的图像的保护,这些图像正在迅速扩散,令人震惊,往往会伤害妇女和儿童,从澳大利亚到西班牙,以及中间的任何地方。

最近,维多利亚州议员乔治-珀塞尔(Georgie Purcell)指责当地一家媒体机构修改了她的照片,通过放大她的胸部和让她的衣服更暴露,使她的身体看起来比实际更大,并将此作为媒体 “持续而阴险 ”地贬低女性政治家的一个例子。

维多利亚州议员乔治-珀塞尔(Georgie Purcell)在她的社交媒体账户上说: “昨天我经历了很多,但我的身体和服装被一家媒体机构拍照是我始料未及的。请注意,我的胸部变大了,衣服也更暴露了。你能想象这种事发生在男议员身上吗--乔治-珀塞尔(@georgievpurcell),2024 年 1 月 29 日。

根据 2023 年的一份报告,在网上发现的所有深度伪造色情视频中,深度伪造色情视频占 98%,而深度伪造色情视频的目标受众 99% 是女性。这清楚地表明,需要一个更好的监管框架。

图平说:“让我们不要忘记,如果我们消费未经他人同意而制作的合成媒体,我们就是问题的一部分,”"重要的是要认识到,你正在享受基于性别的数字暴力。”

尽管具有革命性意义,但深度伪造时代为立法机构和政府带来了新的挑战和保留意见。立法者们要做的工作很多,因为他们要努力对这种可以让任何人在任何时候说任何话的技术进行适当的监管。

根据欧盟安全合作署(Europol)2022 年的一份报告,虚假信息以及深度伪造视频和图像的日益普及将 “对人们认知权威和新闻媒体的方式产生深远影响”,并破坏人们对当局和官方信息的信任。

“专家们担心,这种情况可能会导致公民不再拥有共同的现实,或者导致社会对哪些信息来源是可靠的产生混淆。这种情况有时被称为'信息启示录'或'漠视真相'。

多年来,人们一直试图用照片和视频来验证他们所读到的任何信息,然后再将其作为确凿的事实来接受,这基本上是遵循了 “除非亲眼所见,否则不要相信 ”的建议。

随着 11 月总统大选的临近,最新数据显示,美国人 “极为关注 ”人工智能和深度伪造对候选人和政治人物的使用。无论属于哪个党派,绝大多数选民都认为应该对这种技术进行适当监管。

他们的担忧并非毫无根据。就在上个月,即 1 月份,一个模仿乔-拜登总统人工智能声音的虚假机器人电话告诉新罕布什尔州居民不要在该州初选中投票给民主党候选人。

2023 年 9 月,佛罗里达州州长罗恩-德桑蒂斯(Ron DeSantis)成为一段病毒式 deepfake 视频的目标,宣布退出 2024 年总统竞选。然而,几个月前,德桑蒂斯团队发布了一段人工智能操纵的视频,视频中前总统唐纳德-特朗普和安东尼-福奇拥抱在一起。

“生产这些类型的东西所需的工具和系统很容易获得,”科技行业分析师 Charles King (Pund-IT) 告诉福布斯。 “同样重要的是,美国当前的政治气候如此破碎和丑陋,以至于双方都有大量自愿的观众,他们准备好并愿意相信对方最坏的一面。”

新闻行业和调查工作中,音频和视频记录、照片和文本通常被视为可靠的证据,有助于确定什么是真实的,什么是虚假的。 Photoshop 等数字处理工具以前就已经存在,但隐藏伪造痕迹通常需要一定的专业知识。此外,获得的修改后的图像并不像人工智能技术所揭示的那么复杂。

当人工智能发挥作用时,传播错误信息的可能性呈指数级增长;尤其是在冲突和战争时期。 GDELT项目(全球事件、语言和声音的实时数据库)的创始人,Dr.卡列夫·汉内斯·利塔鲁(Kalev Hannes Leetaru)强调了这种危险。

Leetaru 的工作重点是利用先进技术并了解这些技术如何重塑全球社会,他告诉 TRT World,“恶意行为者 - 无论是加沙、乌克兰还是其他冲突地区 - 都可以使用这些工具来创建高度个性化和“目前大规模伪造虚假信息的可能性非常高,”他说。

“任何社交媒体平台或恶意行为者都可以查看整个国家的人口,并根据任何个人/人民/群体的社交媒体历史记录锁定他们,向他们呈现他们知道如何极度激怒和挑衅的内容,从而真正撕裂社会,“他解释道,”或者相反,当冲突地区有真实的战争罪行文件流出时,这些文件很容易就会黯然失色。”

2022 年,乌克兰总统沃洛德梅尔-泽连斯基(Volodymyr Zelensky)号召其军队放下武器对抗俄罗斯的假视频被曝光。然而,许多人都正确地识别出了数字操纵的痕迹--例如,泽连斯基的脸与头不太相符,或者他的口音听起来很奇怪。

然而,一年后的 6 月,俄罗斯媒体又被一段类似但更有说服力的假冒俄罗斯总统普京的视频所欺骗。而在 12 月,该公司用人工智能技术制作的深度伪造视频在俄罗斯领导人的年度新闻发布会上让他大吃一惊,亲眼目睹了自己的假图像。

据美联社报道,自 10 月 7 日以来,以色列对加沙发动的战争已造成 27 800 多名巴勒斯坦人丧生,67 000 多人受伤。

现在有来自被围困领土的真实图像和证词,但它们有时与虚假的说法和被歪曲的事实并列。战争初期,一些人工智能生成的图片在社交媒体上流传,其中包括一张婴儿在废墟中哭泣的照片。此外,其他冲突地区的旧照片和视频也被作为加沙当前局势的证据。

随着时间的推移,人工智能已变得越来越复杂,并将像 Photoshop 等计算机动画或编辑软件一样继续发展。如今,几乎任何人都可以通过轻松访问的人工智能工具(如 DALL-E 或 Midjourney)制作图像、视频或音频,只需输入文本,就能制作出令人信服的赝品。

利塔鲁等专家表示,仅仅是深度伪造的存在,就会让人们对真实新闻或真实图像产生怀疑。“现在,我们可以突然让空气中充满已知的假信息,然后我们可以说,'那张记录战争罪行的图片,和其他所有图片一样,都是假新闻'"。

简而言之,能够制造出令人信服的假证据这一事实令人震惊,而且它还会让人们忽视真实证据,破坏人们对记录的图像和视频作为现实反映的信任。

德国库恩物流大学(KLU)校长兼主任、数字化转型教授安德烈亚斯-卡普兰(Andreas Kaplan)说,他毫不怀疑人工智能内容(包括深度伪造视频和类似技术)在塑造叙事、影响舆论和强化某些观点方面发挥着重要作用。

不过,他说,这种技术对错误信息传播的影响要小得多。

“换句话说,生成式人工智能本质上促进了错误信息和虚假信息的生产。但它对错误信息的需求或传播并没有同样的影响,"卡普兰告诉《TRT World》。“真正的问题在于,人们开始依赖人工智能工具来获取信息,“他补充道,”这其实与毫无疑问地接受维基百科上的信息,或者在政治活动中是否相信应答机的呼叫并无太大区别。

卡普兰强调,目前正在努力遏制滥用人工智能生成的媒体内容,包括深度伪造内容,不过他也承认监管机构往往落后于现状,并补充说:"一个明显的例子是欧盟委员会关于人工智能的法规草案。该法规要求所有使用深度伪造技术制作的内容都必须贴上标签"。

卡普兰指的是 2023 年 12 月 9 日初步达成一致的《人工智能法案》。该法案于 2021 年 4 月首次提出,在成为欧盟法律之前必须获得议会和理事会的正式通过。一旦获得批准,它将为全球首个人工智能规则制定指导方针。

“同样,美国最近也加大了通过立法打击深度伪造的力度。11月总统大选的临近可能会加速这一进程。”

加拿大也在研究一项法案,开始对一些人工智能系统进行监管。在英国,2023 年 10 月通过的《网络安全法案》旨在通过新的法律,采取零容忍的方式保护儿童免受网络伤害,从而使英国成为 “网络世界中最安全的地方”。

卡普兰认为,普通社交媒体用户判断事物是否可信的方法是谨慎对待他们所消费的材料,并对其进行批判性评估,而不是毫无疑问地接受它。

“卡普兰说:"认识到自己的偏见也很重要,因为我们往往倾向于相信与我们的预设一致的信息。这位教授的研究兴趣包括人工智能、数字化和社交网络的进步,他补充说:“了解这种偏见有助于更客观地分析信息。”最后,他警告说:"总之,新闻看起来越耸人听闻,就越应该质疑其来源。”

马里昂·费尔南多, TRT World 副制片人

 

 

 

 

快速浏览TRT Global。分享您的反馈!
Contact us