本周,国会就 Facebook 创始人兼首席执行官马克·扎克伯格的公司隐私政策,及其显然无力阻止某些人利用其社交媒体平台宣传仇恨、恐怖主义或政治宣传,对他进行了为期两天的质询。在扎克伯格为未能采取更多措施保护用户隐私和遏制网站上虚假和误导性信息的传播而道歉的过程中,他多次向立法者保证,人工智能很快将解决 Facebook 的许多问题。他是否有充分的理由,取决于他的公司具体计划如何使用人工智能,以及这项技术在未来几年内的成熟速度。
扎克伯格在两个参议院委员会面前吹捧了几项人工智能的成功案例:司法和商务、科学与运输委员会以及众议院能源和商务委员会。扎克伯格在周二的参议院听证会上作证说,Facebook 的人工智能算法已经能够查找并删除伊拉克和叙利亚伊斯兰国 (ISIS) 和基地组织相关 Facebook 账户发布的 99% 的恐怖主义宣传和招募信息。但是,反极端主义项目 (CEP) 是一个非营利性非政府组织,负责监测和报告恐怖组织活动,它在同一天对 Facebook 的说法提出异议。CEP 发表声明称,它仍然“定期在 Facebook 上发现极端主义内容和仇恨言论”。
Facebook 的创始人经常提醒国会,他在 2004 年从他的宿舍里创办了这个网络,并且他多次承认,他长期以来对内容进行监控的方法依赖于成员报告滥用行为。他说,这种被动的姿态多年来导致该公司未能迅速发现和删除歧视性广告、针对特定群体的仇恨内容和恐怖主义信息。Facebook 也没有能力处理俄罗斯团体为影响 2016 年美国总统大选而发布的大量误导性新闻文章。扎克伯格表示,人工智能已经在帮助 Facebook 解决其中一些问题,他说该公司利用这项技术查找并删除了“数万个”试图影响法国、德国和过去一年中其他地方政治选举的选民的账户。
支持科学新闻报道
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您正在帮助确保有关当今塑造我们世界的发现和想法的具有影响力的故事的未来。
扎克伯格承认,可以自动识别言语攻击的软件更难编写,而且还需要 5 到 10 年的时间。主要的挑战是准确定义什么构成仇恨言论,以及训练人工智能算法跨多种语言识别它。针对 Facebook 为煽动针对缅甸(也称为 Burma)罗兴亚穆斯林的暴力提供论坛,并且在删除此类内容方面行动迟缓的批评,扎克伯格表示,他的公司没有充分准备来阻止其平台被滥用。他告诉参议员,除了开发人工智能软件以在未来自动识别仇恨言论外,该公司还在雇用更多会说缅甸语的员工来监控针对罗兴亚人的恶意活动。他补充说,在软件准备就绪之前,“标记此类内容的错误率高于我所能接受的程度。”
Facebook 大约有 15,000 人从事安全和内容审查工作,并计划在年底前再雇用 5,000 人。“这是一场军备竞赛,”扎克伯格说,他指出 2018 年是美国和其他地方选举的重要年份,Facebook 的对手将继续改进利用该平台传播虚假信息的方式。
“我相信[扎克伯格]所说的是可能的,但由于方法和结果尚未公布,我无法确定 Facebook 是否能够达到所需的准确性,”斯图尔特·罗素说,他是加州大学伯克利分校的计算机科学与工程教授。“人工智能和众包标记的结合,以及适当的推理方法来评估标记者的可靠性,应该能够清理掉足够的垃圾,以至于发布垃圾信息成为一种徒劳的活动。”
卡内基梅隆大学机器人研究所的兼职研究科学家迪恩·波默卢说,人工智能判断 Facebook 帖子是否包含或链接到虚假信息的能力,需要软件理解语义以及不同词语在语境中的含义。“你需要常识来理解人们的意思,这超出了人工智能目前的能力,”波默卢说。发帖者对标记为“令人反感”的文本、图像或视频进行细微更改的能力,进一步复杂化了人工智能帮助 Facebook 的能力。波默卢说,文本修改、照片裁剪和视频编辑使软件难以在内容传播和更改时进行简单的模式匹配。他补充说,一种可能在近期奏效的方法是,Facebook 为其雇用的数千名内容监控人员配备人工智能工具,以帮助他们查找和分析假新闻和其他不需要的内容。
Facebook 的人工智能开发确实正在顺利进行中。该公司于 2013 年在人工智能领军人物扬·勒丘恩的领导下成立了 Facebook 人工智能研究院 (FAIR)。勒丘恩今年早些时候转换了角色,成为 Facebook 的首席人工智能科学家,他将 FAIR 的研究重点放在开发预测能力上,这将使社交媒体网站能够对用户想要什么做出有根据的猜测,以便更好地与他们互动。这包括更个性化的新闻提要和定向广告,以及聊天机器人的改进——旨在提供信息、实现在线购买和提供客户服务的人工智能计算机程序。旨在提高聊天机器人识别不同语言和理解对话能力的相同算法,将与 Facebook 标记全球令人反感内容的能力特别相关。
参议院和众议院听证会反复出现的一个担忧是,Facebook 在定义令人反感的内容时,是否可以避免政治偏见。扎克伯格周二表示,该公司有一个团队专注于如何合乎道德地使用人工智能。密歇根大学信息学院助理教授弗洛里安·肖布表示,Facebook 最终将不得不依靠人工智能来标记可能令人反感或需要审查的内容。“他们无法雇用足够的人来监控 Facebook 上发布的每一篇文章,”他说。“最大的挑战,以及我们作为一个社会应该关注的事情是,Facebook 成为我们道德的监督者。在这种情况下,决定什么是令人反感的,将是 Facebook 的一群人,而不是整个社会。”
由于有消息透露,与俄罗斯军事情报部门有关联的团体多年来一直在利用该平台,直至 2016 年大选,Facebook 一直受到监管机构的关注。Facebook 发现了 470 个账户和页面,这些账户和页面促成了俄罗斯互联网研究机构 (IRA) 开展的虚假信息宣传活动。在两年多的时间里,IRA 在 3,000 多个 Facebook 广告上花费了约 10 万美元。然而,最终让扎克伯格出现在参议院和众议院委员会面前的导火索是,最近有消息透露,剑桥大学研究员亚历山大·科根在未经他们许可的情况下,将约 8700 万 Facebook 用户及其朋友的数据交给了剑桥分析公司,这是一家由唐纳德·特朗普总统 2016 年竞选团队聘请的政治数据公司。
肖布说:“Facebook 似乎正在经历一个反思阶段,现在开始意识到其平台在社会上的影响力。”“长期以来,他们认为自己在连接人们方面发挥了重要的社会功能,而现在他们意识到,实际上随之而来的是很多责任。这似乎有点转变,但与此同时,这并不是我们第一次听到扎克伯格为 Facebook 上的不检点行为道歉。”
波默卢说,真正的问题更多的是 Facebook 改变的意愿,而不是它开发人工智能和其他更好地保护会员隐私和防止暴力或误导性内容传播所需技术的能力。“基本商业模式建立在耸人听闻的内容之上,”他补充道。“因此,不清楚摆脱所有煽动性内容是否符合 Facebook 的最佳利益。”