Facebook 非常擅长移除平台上的色情、暴力、犯罪等内容,社群巨头在 16 日公布了“年度透明度报告”(Facebook Transparency Report),详细列出各种违反社群准则内容被移除的比例,但详细观察后会发现,“仇恨言论”移除的比例相当低,难不成是世界和平,大家都口说好话不再攻击彼此了吗?不,这背后其实跟人工智能(AI)系统的能力极限有关。究竟为什么 AI 下围棋能赢人类、 AI 机器人都能获得公民权的现在,仍赶不上仇恨言论增生的速度呢?
Facebook 公布年度透明度报告,仇恨言论移除比例最低
在外界纷纷期待 Facebook 拿出魄力整顿平台仇恨内容的态势下,Facebook 大幅提高了今年(2018)内容审查团队的预算,预计在今年底前聘用 1 万名审查人员。
16 日公布的“年度透明度报告”(Facebook Transparency Report)多达 86 页报告中,Facebook 公布今年第一季共删除了 5.83 亿个假账号、8 亿 6,580 万则贴文,Facebook 将这些内容分为六大类,从数字来看,系统主动清除暴力内容比例是 86%、色情内容 96%,垃圾内容比例更高达 100%,令人意外的是,仇恨言论比例只有 38%,是所有类别最低的。
仇恨言论方面,科技技术仍无法运作顺畅,仍需透过人工审查团队协助。第一季成功移除了 250 万则仇恨言论贴文,其中 38% 仇恨言论是由我们的科技揪出。──Facebook
歧视用语使用情境不同,仇恨言论难判断
但这其实不能完全责怪 Facebook,原因是目前人工智能(AI)对于仇恨言论定义的理解仍不够深刻。
举例来说,歧视性用语在某些情况下也会用於戏谑、自我解嘲等目的,而这些用语大多只在特定语境(包括个人主观因素、地域差异、时代差异影响)才会产生歧视性意义,所以并没有明确标准可判定某种用语是否为歧视,人类对“贬义、侵略性的内容”判定很主观,甚至因人而异,不要说机器,甚至连人类自己判断可能都没统一的标准。
Facebook 产品管理副总裁罗森(Guy Rosen)就点出其中的困难处:
像是 AI 这类的科技,要准确判断所有有害内容还有一段路要走,举例来说,AI 还没有足够的能力,辨识一个人是在散布仇恨,或只单纯描述自身被伤害的经验,这可能会衍生出一些问题。
▲ 没有明确的标准可判定某种用语是否歧视,人类对“贬义、侵略性的内容”判定很主观,甚至因人而异。(Source:pixabay)
除了用词本身,使用情境也是一大关键,假设有一个用户,只是单纯发文讲述他被当众羞辱的经验,描述的文字引用包含仇恨内容的原句,那这样的贴文算不算仇恨言论内容?应不应该强制移除?身为人类的我们都能同意这样的内容不算数,但 AI 又该如何理解这两者之间的细微差别呢?
另外,从文化面来说,有些字眼也许在某些文化中是贬抑,但在另一种文化却没有这个意思,又或者是同形异义,这些又该如何让 AI 理解呢?
祖克柏乐观看待,5 到 10 年内开发新 AI 工具
如同祖克柏自己贴文所说:“我今年的首要任务是要让人们感到安全。”为了将伤害降到最低,即使拥有大量科技资源的 Facebook,仍倾向使用人工审查来把关内容。
今年刚落幕的开发者大会 F8,Facebook 也谈到,“要完全理解人类的语境,还是需要透过人类的双眼,我们的团队会亲自审查,确定没问题。”
▲ 祖克柏表示,未来 5 至 10 年内,Facebook 可开发出精准理解语意细微差异的 AI 工具。(Source:Facebook)
祖克柏也在听证会表示,他相信未来 5 到 10 年内,Facebook 可开发出能精准理解语意细微差异的人工智能工具,将能更准确标记仇恨言论,他对这样的未来相当乐观。
(本文由 数位时代 授权转载;首图来源:pixabay)
延伸阅读:
- Facebook 挽救形象,发布透明度报告数据却不足