AI假裸体照正蓬勃发展 正毁掉无数女性青少年生活(图)
据华盛顿邮报 11月5日报道 当加比·贝尔(Gabi Belle)得知网上流传着她的裸照时,她感到害怕。这位YouTube网红从未拍过这张照片,照片中她光着身子站在田野里,而则是AI制作的假照片。
新闻来源:华盛顿邮报
根据报道,当26岁的贝尔给一位同事发信息请求帮助删除这张照片时,他告诉她,网上散布着近100张假照片,其中大部分都是由人工智能生成的色情网站上的。贝尔说,这些照片已于7月被撤下,但描绘她在色情场景中的新照片已经浮出水面。
“我觉得恶心,觉得被侵犯了,”贝尔在接受采访时说。“这些隐私部位不应该让世界看到,因为我没有同意。所以有人给我拍照真的很奇怪。”
今年,人工智能正在推动虚假色情图片和视频的空前繁荣。这得益于廉价易用的人工智能工具的兴起,这些工具可以在照片中“脱光”人物—分析他们的裸体是什么样子,并将其强加到图像中—或者无缝地将一张脸转换成色情视频。
行业分析师吉纳维芙·吴(Genevieve Oh)表示,自2018年以来,在托管人工智能生成的色情照片的十大网站上,假裸照数量激增了290%以上。这些网站上既有名人和政治人物,如纽约众议员亚历山大·奥卡西奥-科尔特斯,也有普通少女,她们的肖像被坏人抓住,用来煽动羞辱、勒索钱财或实现私人幻想。
受害者几乎没有追索权。目前还没有针对深度色情的联邦法律,只有少数几个州颁布了相关法规。拜登总统周一发布的人工智能行政命令建议,但没有要求公司给人工智能生成的照片、视频和音频贴上标签,以表明计算机生成的工作。
与此同时,法律学者警告称,人工智能假图像可能不受个人肖像的版权保护,因为它们是从由数百万张图像组成的数据集中提取的。“这显然是一个非常严重的问题,”旧金山大学(University of San Francisco)法学教授蒂芙尼·李(Tiffany Li)说。
人工智能图像的出现对女性和青少年来说尤其危险,因为他们中的许多人还没有准备好接受这种假照片。监测深度造假的公司Sensity AI在2019年进行的一项研究发现,96%的深度造假图像是色情图片,其中99%的照片是针对女性的。
“现在主要针对女孩,”宾夕法尼亚大学(University of Pennsylvania)的研究人员和数字权利倡导者索菲·马多克斯(Sophie Maddocks)说。“那些不在公众视野中的年轻女孩和女性。”
“看,妈妈!他们对我做了什么?”
9月17日,Miriam Al Adib Mendiri结束旅行回到西班牙南部的家中,发现14岁的女儿心烦意乱。她女儿分享了一张自己的裸照。
“看,,妈妈!他们对我做了什么?”Al Adib Mendiri回忆她的女儿说。
她从来没有拍过裸体照。但据警方称,一群当地男孩从他们镇上几个女孩的社交媒体资料中抓取了她们的裸照,并用一款人工智能“裸体器”应用制作了裸照。
这款应用程序是众多使用真实图像创建裸照的人工智能工具之一,近几个月来,裸照在网络上风靡一时。伊利诺伊大学厄巴纳-香槟分校(University of Illinois at Urbana-Champaign)的人工智能专家王刚(Gang Wang)表示,通过分析数百万张图像,人工智能软件可以更好地预测裸体的身体看起来是什么样子,并流畅地将人脸覆盖到色情视频中。
尽管许多人工智能图像生成器阻止用户创建色情材料,但像Stable Diffusion这样的开源软件将其代码公开,让业余开发者可以利用这项技术——通常用于邪恶的目的。(《Stable Diffusion》的开发商Stability AI没有回复置评请求。)
吴说,一旦这些应用程序公开,他们就会使用推荐程序,鼓励用户在社交媒体上分享这些人工智能生成的照片,以换取现金。
当吴检查前10大虚假色情图片网站时,她发现今年上传的虚假色情图片超过41.5万张,点击量接近9000万。
人工智能生成的色情视频也在网络上爆炸式增长。在搜索了40个最受欢迎的假视频网站后,吴发现,2023年有超过14.3万个视频被添加,这一数字超过了2016年至2022年的所有新视频。吴还发现,
这些假视频的浏览量已经超过42亿次。
美国联邦调查局(Federal Bureau of Investigation)今年6月警告称,诈骗者要求支付赎金或提供照片,以换取不传播色情图片的性勒索案件有所增加。虽然目前还不清楚这些图像中有多少是人工智能生成的,但这种做法正在扩大。联邦调查局告诉《华盛顿邮报》,
截至9月,超过26800人成为“性勒索”活动的受害者,比2019年增加了149%。
“作为一个女人,你不安全”
今年5月,在一个人气颇高的色情论坛上,一名发帖者发起了一个名为“我可以假装迷恋你”的帖子。这个想法很简单:“把你想看的裸照发给我,我可以用人工智能伪造”,这位主持人写道。
几小时后,女性的照片如潮水般涌来。“你能做到吗,女孩?”一个人补充道。
请求几分钟后,裸照版本就会出现在线程上。一位用户写道:“非常感谢,兄弟,这太完美了。
名人是虚假色情创作者的热门目标,他们的目的是利用人们对著名演员裸照的搜索兴趣。但是以名人为主题的网站可能会导致其他类型的裸体激增。这些网站通常包含来自未知个人的“业余”内容,并刊登广告,推销人工智能色情制作工具。
谷歌已经制定了相关政策,以防止未经同意的性图片出现在搜索结果中,但它对深度伪造图像的保护并不那么强大。Deepfake色情内容和制作这些内容的工具,即使没有专门搜索人工智能生成的内容,也会出现在该公司搜索引擎的显著位置。吴在截图中记录了十几个例子,这些例子得到了《华盛顿邮报》的独立证实。
谷歌的发言人内德·阿德里安斯(Ned Adriance)在一份声明中表示,该公司“正在积极努力为搜索带来更多保护”,该公司允许用户请求删除非自愿的虚假色情内容。
他说,谷歌正在“建立更广泛的保护措施”,不需要受害者单独请求删除内容。
旧金山大学的李教授说,很难惩罚这些内容的创作者。《通信规范法(Communications Decency Act)》第230条保护社交媒体公司不必为其网站上发布的内容承担责任,从而使网站几乎没有负担对图片进行监管。
受害者可以要求公司删除与他们相似的照片和视频。但由于人工智能从数据集中的大量图像中提取虚假照片,受害者很难声称内容完全来自他们的相似之处,李说。
“也许你仍然可以说:‘这是侵犯版权,很明显他们拿走了我的原始版权照片,然后只是在上面加了一点。’”李说。“但对于深度造假……就不太清楚……原始照片是什么了。”
在没有联邦法律的情况下,至少有9个州——包括加利福尼亚州、德克萨斯州和弗吉尼亚州——已经通过了针对深度造假的立法。但这些法律的适用范围各不相同:在一些州,受害者可以提起刑事诉讼,而另一些州只允许提起民事诉讼——尽管很难确定起诉谁。
科技人权倡导组织Witness的执行主任萨姆·格雷戈里(Sam Gregory)表示,推动对人工智能生成的图像和视频进行监管,往往是为了防止大规模传播,解决对选举干预的担忧。
但格雷戈里补充说,这些规则对深度假色情几乎没有作用,在小团体中分享的图片可能会对一个人的生活造成严重破坏。
YouTube网红贝尔仍然不确定有多少她的深度假照片是公开的,并表示需要更强有力的规定来解决她的经历。
“作为一个女人,你不安全,”她说。