2024-07-06 22:08来源:大智报

上周,泰勒·斯威夫特(Taylor Swift)的色情假照在X上疯传,引起了她的粉丝群的迅速反应,并引起了人们对一个困扰女性和女孩多年的问题的关注:深度色情。
据404媒体报道,这些图片是用微软的人工智能图像生成器Designer制作的。
在404报告之后,微软(MSFT) -免费报告官员表示,他们加强了安全系统,并首先关闭了使用户能够生成图像的漏洞。
这一事件是一个更广泛、更古老的问题的征兆。
六年多前,萨曼莎·科尔(Samantha Cole)为Motherboard报道了人工智能辅助下的深度虚假名人色情作品激增的早期阶段。当时,制作这些材料的努力——后来影响了盖尔·加朵、斯嘉丽·约翰逊、奥布里·普拉扎和斯威夫特等人——花费了几个小时到几天的时间。
“这种新型的虚假色情作品表明,我们即将生活在这样一个世界里,在这个世界里,人们做和说他们从未做过的事情,伪造可信的视频非常容易。甚至做爱,”科尔写道。
那个世界就在这里。
404 Media最近的调查突显了未经同意的深度假色情供应链,在这个供应链中,用户可以很容易地——而且非常迅速地——使用人工智能图像生成器创建几乎任何人的可信、露相的图像。
斯坦福大学最近的一项调查在一个开放数据集中发现了数百个儿童性虐待材料(CSAM)的例子,该数据集用于训练流行的人工智能图像生成器,包括Stable Diffusion。
去年,新泽西州一所高中的学生使用人工智能图像生成器制作并传播了30多名女同学的色情图像。
保护人们免受此类事件影响的法律并不普遍;没有联邦法律禁止创作或传播未经同意的深度色情作品。
包括德克萨斯州、纽约州、明尼苏达州、弗吉尼亚州、佐治亚州和夏威夷州在内的几个州已经通过了立法来解决这一问题,但每个州的立法力度各不相同,有些州只针对此类材料的传播,而不针对其创作。
更多关于AI的深入研究:
虽然大多数州都有禁止报复性色情的法律,但研究媒体法与技术交叉的雪城大学(Syracuse University)教授妮娜·布朗(Nina Brown)表示,大多数此类法律都不会涵盖由深度伪造技术制作的色情内容。
布朗告诉TheStreet:“立法机构显然有机会解决这个问题,也许我们应该感谢泰勒·斯威夫特,因为在她成为未经同意的色情深度骗局的受害者仅仅五天后,国会就提出了两党抗争法案。”
该法案于周三出台,将为深度伪造色情图片的受害者提供联邦民事救济,并将对制作、传播、接收或拥有意图传播这些图片的个人强制执行。
据《纽约时报》报道,与此同时,执法官员正在为人工智能生成的儿童色情材料的大幅增长做准备。
也许并不奇怪,网上绝大多数深度造假都是女性的色情图片。总的来说,女性缺乏明星效应,无法让X或任何人挺身而出为自己辩护。”“这就是为什么我们需要联邦政府制定有意义的法律,来阻止和惩罚那些参与制作和传播未经同意的深度虚假色情内容的人。”
由于监管落后于技术进步,美国国家网络安全联盟(National Cybersecurity Alliance)执行董事丽莎·普拉格迈尔(Lisa Plaggemier)表示,更大的问题很简单:人工智能和互联网一样,在安全方面存在根本性缺陷。
Plaggemier告诉TheStreet,如果互联网在建立时就考虑到了安全问题,那么暗网就不会存在。如果人工智能模型在构建时考虑到了安全性,那么目前深度假色情的情况可能是可以避免的,但她说,“精灵已经从瓶子里出来了”。
“我只是希望我们能从这种情况中吸取教训。如果你在设计这些东西时不考虑安全性,不考虑它们可能被滥用,那么它们就会被滥用,”Plaggemier说。“这是人的本性。”
她说,防止深度虚假色情作品产生的护栏是一个可能的解决方案,但科技公司没有财政激励来制定护栏,没有监管,也就没有要求。
此外,由于游说活动已在美国政坛根深蒂固——苹果(Apple)——“免费报告”、微软(Microsoft)——“免费报告”、谷歌(Google)——“免费报告”、meta (meta)——“免费报告”和亚马逊(Amazon)——“免费报告”在2022年总共花费了6900万美元游说国会——她预计短期内不会出台有用的监管规定。
由于政府仍在试图控制对社交媒体公司的监管,Plaggemier对国会能否在人工智能方面迅速采取行动并不乐观。她说,试图对这项技术进行监管所带来的巨大灰色地带,特别是在立法将如何界定公共礼仪和审查之间的界限方面,使政府可以通过监管来解决这个问题的想法进一步复杂化。
“我甚至不知道技术上的解决方案是否可行,”她说。“看看我们是如何在社交媒体上挣扎的。人工智能也会遇到同样的问题。”
根据Plaggemier的说法,对目前情况唯一可行的回应是个人和父母的责任,这需要通过更好地教育公众关于人工智能的危险来加强。
她说:“我更担心的是我们的孩子和青少年会对彼此做些什么,不了解其中的含义,不了解可能造成的伤害。”“在这种情况下,我更担心的是这一点,而不是大型科技公司,因为我不认为大型科技公司有一个快速简单的解决方案;我认为家长、老师和学生都需要意识到这一点。”
Plaggemier注意到,越来越多的父母等着给他们的孩子提供与互联网相连的技术,同时,孩子们对这些技术的怀疑也比过去多了。
人工智能政策研究所(AIPI)最近的民意调查进一步发现,93%的受访美国选民担心人工智能有能力制作深度伪造的儿童色情内容;63%的人表示,用于创建人工智能生成的儿童色情内容的模型的创造者应该承担责任。
更多关于AI的深入研究:
Plaggemier说,父母应该考虑在孩子使用电子设备时更密切地监控他们在做什么。父母也应该更适应孩子使用的应用程序上的家长监控设置。
她说:“除非我们制定法规,或者除非技术提供商愿意自我监督——我认为这两种情况都不会很快发生——如果我们不就这些话题进行更多的教育,如果父母不更多地关注和参与他们孩子正在使用的技术,我们就会失去人才。”
Plaggemier说,家长和老师应该重新解决信任和隐私之间的平衡,让孩子们真正“在网络流量中玩耍”。
“这有可能对我们的孩子造成最大的伤害。她说:“泰勒·斯威夫特可以得到一些心理健康方面的帮助,她可能比普通的13岁中学生要好得多。”“所以这是我更关心的问题:我们是否向教师和家长提供了足够的信息?”
如果斯威夫特有意诉诸法律,她有几个选择,但雪城大学(Syracuse University)法学教授舒巴·高希(Shubha Ghosh)表示,这一措施的关键实际问题是“确定合适的被告来提出可能的索赔。”
高希告诉《华尔街日报》,理论上,“她可以对公司和分享这张照片的人提起诽谤诉讼。”
律师事务所Granderson Des Rocher新媒体业务负责人伊丽莎白·穆迪(Elizabeth Moody)对此表示赞同,她说,由于这些照片是假的,看起来是真的,它们可能构成诽谤。
根据穆迪的说法,一个更有力的论点应该属于“公开权”,这是一项防止为了商业利益而滥用个人姓名或肖像的权利,这是大多数州承认的,尽管不是联邦一级的。
穆迪表示,斯威夫特也可以辩称这是侵犯隐私。
至于被告的问题,穆迪说,试图找到并追查这些照片的创作者几乎没有意义。就像《纽约时报》、作家协会和其他组织起诉OpenAI和微软等人工智能公司侵犯版权一样,穆迪表示,斯威夫特的最佳选择是起诉模型背后的公司,尽管这个责任问题尚未得到法律上的回答。
例如,法院尚未决定第230条是否或如何适用于生成式人工智能。该条款保护互联网公司不必为他人在其平台上发布的内容承担责任。
穆迪有些乐观地认为,由于这件事发生在斯威夫特这样一个受人爱戴的知名人物身上,它可能会推动立法,并可能进一步改变这些破坏性的激励措施,为“一些大型科技公司”创造一个良好的商业理由,以建立更好的护栏,防止深度虚假色情内容的产生。
穆迪说:“因为这件事发生在泰勒·斯威夫特身上——说起来很可怕——但发生在一个拥有如此庞大的粉丝群和广泛吸引力的人身上,而且倾向于真正为自己和像她这样的人辩护,这实际上可能是一件好事。”“我觉得她会做点什么。”
“我们必须改变法律,”她补充说,“但我认为,即使她赢得了一场州诉讼,改变法律也会容易得多。”
有限公司请通过电子邮件ian.krietzberg@thearenagroup.net或信号732-804-1223与Ian联系。