Facebook 的机器学习算法能准确预测自杀吗?

这家社交媒体巨头旨在通过快速标记和回应令人担忧的帖子来拯救生命

今年一月份,奈卡·维南特自杀身亡,这位迈阿密地区的青少年在 Facebook 流行的视频直播功能 Facebook Live 上直播了两个小时。她的一个朋友看到了这段视频并报警,但援助人员未能及时赶到,挽救这位 14 岁少女的生命。其他年轻人最近也在包括 Twitter、Tumblr 和 Live.me 在内的社交媒体平台上发布了自杀信息。

为了拯救生命,Facebook 和其他社交媒体巨头现在正在涉足自杀预防工作——创建新的警报系统,旨在更好地识别和帮助有风险的个人。上周三,Facebook 公布了一套新的工具,包括该公司首个用于发现可能自杀或有轻微自残风险的用户的模式识别算法。Facebook 表示,新的工作将帮助它标记令人担忧的帖子,并将用户与心理健康服务联系起来。这也代表了其机器学习的新前沿。

心理学家丹尼尔·雷登伯格说,自杀现在是该国第十大死因,也是青少年第二大死因,因此社交媒体可能是一个重要的干预点。他是 Facebook 的合作心理健康组织之一 Save.org 的执行董事。Facebook 目前报告称,全球每天有超过 10 亿用户。在美国,根据皮尤研究中心的两份 2015 年报告,71% 的 13 至 17 岁青少年和 62% 的 18 岁以上成年人在 Facebook 上有账号。


支持科学新闻报道

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道: 订阅。通过购买订阅,您正在帮助确保有关塑造当今世界的发现和想法的有影响力的故事的未来。


为了接触到有风险的用户,Facebook 表示正在扩展其服务,允许朋友举报包含任何自杀或自残计划迹象的帖子,并为这些人和举报他们的朋友提供一系列选项。选择包括呼叫热线、提示联系朋友以及在危机时刻该做什么的提示。此工具现在也可用于 Facebook 直播。包括 TwitterPinterestYouTube 在内的许多社交媒体平台都存在类似的举报系统。Facebook 现在还在试点一项计划,允许人们使用其即时消息应用程序 Messenger 直接与危机支持组织的辅导员联系,包括 Crisis Text Line 和 全国自杀预防生命线 (NSPL)。

Facebook 还计划使用模式识别算法来识别可能存在自残风险的人,并为他们提供帮助资源。该公司表示,其新的 AI 人工智能程序最初将在有限的基础上推出,将采用机器学习来识别暗示自杀想法的帖子——即使 Facebook 上没有人举报过。

Facebook 的发言人威廉·内维厄斯说,机器学习算法将使用两个信号——一个是用户帖子中与自杀或自残相关的词语或短语,另一个是来自担心朋友的评论——来确定某人是否有风险。如果模式识别程序识别出令人担忧的帖子,“举报帖子”按钮将会更突出地显示,以在视觉上鼓励用户点击它。“希望人工智能学习能够从各个点获取多个信号,[将它们]整合在一起并激活响应,既针对可能面临风险的人,也针对其他[可以帮助]的人,”雷登伯格在一封电子邮件中写道。

如果这些线索发出更高程度的紧急信号,系统将自动提醒 Facebook 的社区运营团队——这是一个由提供技术支持并监控站点是否存在欺凌或黑客攻击等问题的员工组成的团队。该团队将快速审查该帖子,并确定该人是否需要额外支持。如果是,他们将确保用户在其新闻提要上看到一个资源页面。(该页面通常只会在帖子被担心的朋友举报时弹出。)

为了帮助其人工智能学习标记令人担忧的帖子,Facebook 挖掘了“数万个被担心另一位朋友的朋友举报的帖子,”NSPL 的项目主管约翰·德雷珀解释说,NSPL 也是 Facebook 的合作组织。

虽然目前的算法仅限于文本,但 Facebook 最终也可能使用 AI 来识别令人担忧的照片和视频。首席执行官马克·扎克伯格 上个月宣布,该公司一直在“研究可以查看照片和视频以标记我们团队应审查的内容的系统”,作为评估包括自杀、欺凌和骚扰在内的举报内容的一部分。“这仍处于非常早期的开发阶段,但我们已经开始让它查看一些内容,它已经产生了大约三分之一的所有向审查我们社区内容的团队提交的报告,”扎克伯格写道。内维厄斯没有提供有关何时应用这些额外工具的信息。

早期信号

一些心理健康专家表示,仅通过语言来识别自杀风险的 AI 仍然有限。“我认为 [机器学习] 是朝着正确方向迈出的一步,”佛罗里达州立大学研究自杀风险的心理学家 约瑟夫·富兰克林 说。富兰克林和他的同事最近对 1965 年至 2014 年的 365 项研究进行了 荟萃分析。他们发现,尽管进行了数十年的研究,专家检测未来自杀企图的能力仍然没有比碰运气好。“只有一个微小的预测信号,”富兰克林说。这些限制促使他和其他人致力于开发机器学习算法,通过分析电子健康记录中的数据来帮助评估风险。“健康记录的局限性在于……我们可以准确预测 [风险] 随时间的变化,但我们不知道他们哪一天会企图自杀,”富兰克林说。他补充说,社交媒体可能有助于更清楚地了解时间安排。但是,这也仍然存在关键的局限性:“即使使用更复杂的自然语言处理,也无法仅从文本中获取太多信息,因为人们可能会出于许多不同的原因使用‘自杀’或‘自杀’之类的词语,而且你不知道某人是否以特定的方式使用它。”

一些研究人员,如心理健康分析公司 Qntfy 的创始人兼首席执行官格伦·科珀史密斯,仅在语言中就发现了有用的信号。在对公开可用的 Twitter 数据进行 最近的检查中,科珀史密斯和他的同事发现,帖子的情感内容(包括文本和表情符号)可能表明存在风险。然而,他指出,这些仍然只是“拼图中的小块”,并补充说,“另一方面,即非语言信号,是时间安排。” “Facebook 掌握着您何时登录、何时聊天……以及您在哪些小时登录的信息,[这些] 都是非常有趣的信号,可能与您是否面临自杀的近期风险相关。”

犹他大学研究退伍军人自杀风险的研究员克雷格·布莱恩已经开始研究自杀路径中时间安排的重要性。“在我们较新的研究中,我们一直在研究序列出现的时间模式——[我们发现]它不仅仅是有大量关于抑郁症或酗酒的帖子,例如,[而是]你写它们的顺序,”他说。

西雅图儿童医院专门研究青少年医学的儿科医生梅根·莫雷诺说,另一个需要考虑的重要因素,尤其是对青少年来说,是他们语言变化的频率。在 2016 年的一项研究中,莫雷诺和同事发现,在 Instagram(一个用于分享照片和视频的社交媒体平台)上,一旦与自伤相关的标签被禁止或标记为有害,就会出现许多衍生版本。例如,当 Instagram 屏蔽 #selfharm 时,就会出现带有替代拼写(#selfharmmm 和 #selfinjuryy)或俚语(#blithe 和 #cat)的替代品。“我仍然认为,机器学习总是会落后于青少年交流方式几步,”莫雷诺说。“尽管我很钦佩这些努力,但我认为我们不能仅仅依靠它们来了解孩子是否在挣扎。”

佛罗里达州立大学将机器学习应用于自杀预防研究的心理学家杰西卡·里贝罗说:“最重要的是,鉴于很多人通过社交媒体联系,这绝对是一项很有意义的工作。”“与此同时,他们受到该领域科学未知因素的限制——不幸的是,尽管进行了数十年的研究,我们仍然了解不多。”

© . All rights reserved.