越来越多的研究人员和科技公司开始挖掘社交媒体,寻找自杀想法的警告信号。他们的努力建立在新兴证据的基础上,这些证据表明,一个人的社交媒体帖子的语言模式,以及他们与智能手机互动的潜意识方式,都可能暗示精神问题。
企业刚刚开始测试自动检测此类信号的程序。例如,位于加利福尼亚州帕洛阿尔托的应用程序开发商 Mindstrong 正在开发和测试机器学习算法,将人们使用的语言和他们的行为(例如智能手机上的滚动速度)与抑郁症和其他精神疾病的症状联系起来。明年,该公司将扩大其研究范围,重点关注与自杀想法相关的行为,这最终可以帮助医疗保健提供者更快地发现患者的自残意图。11 月下旬,Facebook 宣布在全球大部分地区推出自己的自动化自杀预防工具。科技巨头苹果和谷歌也在进行类似的尝试。
一些精神卫生专业人士希望这些工具可以帮助减少自杀人数,自杀人数在美国正在上升,自杀是 15 至 34 岁人群的第二大死因。俄亥俄州立大学哥伦布分校的社会工作研究员 Scottye Cash 表示,年轻人更有可能在社交媒体上寻求帮助,而不是去看治疗师或拨打危机热线。
关于支持科学新闻
如果您喜欢这篇文章,请考虑支持我们屡获殊荣的新闻报道,方式是 订阅。通过购买订阅,您正在帮助确保关于当今塑造我们世界的发现和想法的具有影响力的故事的未来。
但 Cash 和其他专家对隐私和公司有限的透明度感到担忧,尤其是在缺乏数字干预有效的证据的情况下。威斯康星大学麦迪逊分校的儿科医生 Megan Moreno 表示,Facebook 用户有权知道他们的信息是如何被使用的,以及会产生什么影响。“这些[工具]效果如何?它们是否会造成伤害,它们是否能拯救生命?”
机器干预
马萨诸塞州剑桥市哈佛大学的心理学家 Matthew Nock 表示,有自杀风险的人很难被识别,至少在短期内是这样,因此自杀很难预防。根据 Nock 的说法,大多数试图自杀的人在与精神卫生专业人员交谈时都否认考虑过自杀。然而,社交媒体提供了实时了解他们情绪的窗口。“我们可以把实验室带到个人身边,”Nock 说。
纽约市危机短信热线的首席数据科学家 Bob Filbin 表示,机器学习算法可以通过识别人类可能错过的模式,帮助研究人员和顾问识别何时社交媒体上的情绪帖子是玩笑、正常焦虑的表达还是真正的自杀威胁。
通过分析危机短信热线上的 5400 万条消息(该热线使人们可以通过短信与顾问交谈),Filbin 和他的同事发现,正在考虑结束生命的人很少使用“自杀”这个词;诸如“布洛芬”或“桥”之类的词是自杀想法的更好指标。Filbin 声称,借助这些见解,危机短信热线的顾问通常可以在三条消息内确定他们是否应该提醒紧急救援人员迫在眉睫的威胁
Mindstrong 的总裁 Thomas Insel 表示,从一个人的设备收集“被动”数据可能比让他们回答问卷更具信息量。Mindstrong 的应用程序将由精神保健提供者安装在患者的手机上,并在后台运行,收集数据。在它开发出个人典型数字行为的概况后,将能够检测到令人担忧的变化,Insel 说。该公司已与医疗保健公司合作,以帮助用户在应用程序发现问题时获得医疗服务。
“我不太相信任何要求某人在危机时刻打开应用程序的事情会很有用,”Insel 说。
它会有效吗?
更大的问题可能是如何以及何时进行干预。Nock 说,误报率可能会居高不下,因此医生或公司使用技术来检测自杀风险将不得不决定在发送帮助之前需要什么程度的确定性。
Moreno 说,也没有什么证据表明诸如自杀热线之类的资源可以挽救生命,而干预措施可能会适得其反,使人们感到更加脆弱。例如,她和其他人发现,人们有时会屏蔽报告包含可能的自杀威胁的社交媒体帖子的朋友,从而使朋友将来不太可能报告这些帖子。
Facebook 新的自杀预防计划主要依靠用户报告以及扫描帖子中“危险信号”的专有算法,然后联系用户或提醒人工审核员。审核员决定是否警告用户网络中的人员,提供指向危机短信热线等资源的链接或通知紧急救援人员。
但是,该公司不会提供有关算法或审核员如何工作的详细信息,发言人也不会说明是否会跟进用户以验证算法或评估干预措施的有效性。Facebook 发言人在一份声明中表示,这些工具是“与专家合作开发”的,用户无法选择退出该服务。
该公司严守秘密的做法让一些研究人员感到担忧。“他们有责任将所有决定都建立在证据的基础上,”Cash 说。然而,该公司提供的外部专家可以用来判断其计划的信息很少。
尽管如此,Insel 很高兴 Facebook 正在尝试。“你必须把这放在我们现在所做的事情的背景下,”他说,“那就是不起作用。”
本文经许可转载,并于 2017 年 12 月 12 日首次发表。