青少年正在互相传播深度伪造裸照。这不是玩笑

青少年正在互相发送同学的深度伪造裸照,扰乱了他们的生活。学校、技术开发者和家长现在需要采取行动

Silhouette of little girl using mobile phone

艾哈迈特·亚拉里/盖蒂图片社

本文是《大众科学》专栏“育儿科学”的一部分。更多内容,请点击此处

今年二月,比佛利山庄的一群初中生通过使用人工智能分享深度伪造的同学裸照,侵害了 16 名同学。据报道,在新泽西州,一所高中的男生以 30 多名女生为目标,之后才被学校官员发现。

学校和家庭正在努力应对在线应用程序,这些应用程序允许某人将普通的着装照片变成伪造的裸照。加利福尼亚州和新泽西州的事件只是众多涉及青少年、技术和意外法律后果的事件中的两起。虽然家长和学校官员通常知道青少年拍摄或分享另一个孩子的裸照是一种违法行为,但许多人并不理解,从真实孩子的着装照片制作和分享伪造的色情图像是联邦犯罪,而且大量的“裸化”或“脱衣”应用程序使得拥有手机的青少年很容易触犯法律。这些应用程序使用人工智能(AI)生成看起来逼真的个人着装照片的裸体版本,这些照片通常来源于社交媒体。


关于支持科学新闻报道

如果您喜欢这篇文章,请考虑支持我们屡获殊荣的新闻报道,方法是 订阅。通过购买订阅,您正在帮助确保关于塑造我们今天世界的发现和想法的具有影响力的故事的未来。


在这些应用程序出现之前,犯罪者可以使用 Photoshop 将孩子的脸粘贴到成人色情演员的身体上(或者,更糟糕的是,另一个受虐儿童的虐待图像上)。但这需要时间、笔记本电脑或台式电脑,以及一些技术熟练程度。现在,这些人工智能驱动的应用程序将完成所有工作,快速且免费,使得在受害者不知情或不同意的情况下快速创建多个受害者的照片变得容易。

虽然一些警察和州立法者越来越关注,但学校、管理人员甚至警察部门在青少年使用这些技术时常常措手不及。这些地方实体最终辜负了受害者,受害者绝大多数是女性。家长可以通过尽早与孩子谈论身体自主权和同意,并鼓励尊重和同情心,来帮助防止自己的孩子成为施害者。当青少年确实制作或分享深度伪造裸照时,学校和执法部门必须采取适当行动,保护青少年的生活免受干扰。

联邦法律将儿童性虐待材料(CSAM)定义为不仅包括实际虐待的真实图像,还包括经过处理看起来像真实、可识别的儿童(例如班级中的特定学生,或儿童名人)正在从事性行为或姿势的图像。联邦调查局最近发布的警报警告说,这包括使用生成式人工智能修改的图像。

一些州现在禁止这些所谓的“变形”图像,包括佛罗里达州路易斯安那州南达科他州华盛顿州,其他地方也在等待类似的法案。教育部最近认为,未经同意分发深度伪造裸照是学校必须根据第九条处理的性别歧视性骚扰形式。作为一名研究人工智能对儿童安全影响的研究人员,我希望这些更新将使更多学生和学校认真对待深度伪造裸照——不像西雅图郊区的一所学校的官员那样,尽管学生们投诉,但他们认为这些图像不值得向警方报告,因为它们是假的。

在罪行发生之前阻止这些罪行的众多原因之一是,成年人的反应可能会使情况变得更糟。在迈阿密,两名男孩,年龄分别为 13 岁和 14 岁,于去年冬天被捕,并面临三级重罪指控。这是已知的第一起儿童因深度伪造裸照而被捕和指控的案例,并且应该成为最后一起。对儿童的刑事起诉是适得其反的:我们充斥着虐待行为的少年司法系统对年轻罪犯造成持久的损害。对于早期青少年来说,这种情况尤其难以证明是合理的,因为他们可能不理解自己所做的事情为什么是错误的,因为他们的道德推理能力尚未完全发展。他们可能认为深度伪造裸照是一个有趣的恶作剧,或者未能预料到副本可能会失控传播。

尽管如此,未经同意的裸体深度伪造是极度厌女的,而“男孩就是男孩”的旧借口不是(而且从来都不是)对性欺凌的可接受回应。深度伪造裸照的受害者可能会遭受“重大”的情感和名誉损害。制作或分享这些图像的青少年需要承担责任,但除了刑事定罪之外还有其他选择。比佛利山庄的初中开除了五名学生,新泽西州的一名深度伪造受害者正在起诉她的同学。

除了惩罚之外,另一种方法是“恢复性司法”,它侧重于治愈和建立相互尊重,同时接受对自身行为的责任。学校中恢复性实践的一个例子是使用讨论圈,其中受害者和被告都有机会被倾听,并要求被告对造成伤害并弥补伤害承担责任。恢复性司法方法并不容易,但它在学校可以成功,并且对于所有相关人员来说,可能比起诉、诉讼或开除更具建设性和治愈性。

对于家长和教育工作者来说,阻止深度伪造裸照的最佳方法是预防,而不是反应。这意味着与孩子们沟通——即使这会变得尴尬。

青少年对性感到好奇或对同龄人有好感并不是不健康的,但家长通常不愿意与孩子讨论性和性行为,而且学校通常没有充分解决这些话题。教导您的青少年或少儿深度伪造裸照是不可以的,原因与我们教导年幼的孩子关于安全与不安全接触的原因相同:“你的身体属于你,所以你可以设定界限并对你的身体做出选择。其他人对自己的身体有隐私权和自主权,你需要尊重他们的,就像他们需要尊重你的那样。”

这种身体自主权包括图像。从受害者的角度来看,深度伪造裸照不是一个有趣的恶作剧,无害的好奇心放纵,比性更安全,或比看色情片更出格。这是一种界限侵犯,就像不必要的触摸一样。制作或分享这样的图像可能会让孩子惹上麻烦,但更重要的是,它伤害了其他孩子的隐私、自主权、尊严和名誉。它对别人的身体做出了不属于任何人的选择。

如果您的孩子成为深度伪造裸照的受害者或旁观者,信任和开放将至关重要。如果您的孩子知道其他孩子成为目标,他们需要有信心和正直地告诉您或学校。如果您的孩子是受害者,他们需要知道他们可以将问题告诉您,并听到这不是他们的错,他们不必感到羞耻。您的孩子需要知道您会支持他们

除了围绕性和性自主权的对话之外,家长还可以做几件具体的事情来阻止深度伪造裸照的传播。与您的孩子谈论他们访问的网站和手机上的应用程序。适合年龄的家长控制可以发挥作用,但请记住,孩子们也应该享有隐私,年龄越大越是如此。在他们的设备上安装监控软件会破坏亲子信任,同时使侵入个人生活的监视行为正常化。此外,许多“家长专用”监控应用程序只是家庭虐待者使用的重新包装的跟踪软件

倡导您孩子的学校制定一项关于深度伪造裸照的全面计划,并征求家长和学生的意见。该计划应包括对教育工作者进行关于管理伪造(和真实)裸照图像的法律以及学生侵害其他学生时的法律义务的培训、为受影响学生提供咨询和支持,以及将深度伪造裸照和相关主题(如性勒索)纳入性教育课程。

孩子们可以通过应用商店、搜索引擎和社交媒体上的广告找到裸化应用程序。苹果InstagramXPatreon 等公司往往对不良公关做出回应——人工智能服务本身也 CSAM 责任感到恐惧。呼吁科技平台加强努力,并踢出裸化应用程序和未经同意的裸照图像;并呼吁人工智能公司承诺确保其产品的负责任使用。

如果您的孩子出现在网上流传的裸照图像(真实或伪造)中,一项名为 Take It Down 的服务可以将其从参与的社交媒体服务中删除。这是国家失踪和受虐儿童中心提供的一项免费工具。联邦政府新的 Know2Protect 运动为儿童和家庭提供了其他资源。

虽然新的州法律和新的 第九条规则 可能有助于解决学校中深度伪造裸照的问题,但厌女症和儿童性虐待是古老的问题,两者的新技术将始终层出不穷。完全根除裸化应用程序是不现实的,但关闭一些不良行为者是可能的。为了获得最大效果,目标应该是可疑的开发者,他们知道自己的软件正在助长 CSAM,而不是他们的青少年用户。创伤儿童的答案不是创伤更多的孩子。

这是一篇观点和分析文章,作者或作者表达的观点不一定代表《大众科学》的观点。

© . All rights reserved.