过去一年来,YouTube 因影片审核及推荐算法问题受到许多批评,而近日 YouTube 创作者 Matt Watson 在 Reddit 提及他注意到推荐算法造成的犯罪者“虫洞”问题后,话题再度浮上台面。
这不是 YouTube 推荐算法第一次因负面影响被提及。过去几年,YouTube 便曾被指控推荐极端主义、恐怖主义内容,甚至促进阴谋论、反事实的健康或科学内容而受到许多关注。
这次发现也是类似情况,但除了可能造成潜在影响,Watson 发现的内容与犯罪的关系又更紧密。
公布的 YouTube 影片中,Watson 展示他运用跳板成立的新账号,在无过往纪录下,算法仍在他观看成年女性泳装影片后的数支推荐影片便导向未成年者穿着清凉游玩的内容。
这些影片下方评论,也可见到许多用户分享不恰当的评论、连结或时间标记来共享一些不妥当的时刻。除了谴责 YouTube 未能控管平台导致这种评论内容出现,Watson 也认为 YouTube 算法打造出的这种“虫洞”,似乎助长了这些犯罪者的联系。
其实早在 2017 年底,BBC 和 Times 调查并披露类似情况后,一些主要广告商便冻结了 YouTube 支出,而 YouTube 同时也因提供儿童观众怪异且低品质的内容受到批评。
尽管 YouTube 随后宣布一些相关政策变化,包含将积极监管儿童影片的评论,以及发现过多不恰当的内容便会完全关闭评论后,这种情况仍持续出现。
对 TechCrunch 询问为何情况没有改善,YouTube 发言人再度承诺会试图改善情况,但他们也强调,关于算法推荐的更改将是渐进式的,同时一开始只会影响美国一小部分影片,因为这涉及机器学习技术与人类评估员、协助培训 AI 系统的专家。
发言人解释,在人类审核方面,目前约有 1 万名员工负责评估标记为审查的内容,而以目前来说,每分钟上传到 YouTube 的影片长度约为 400 小时,同时确认评论内容也仍是 AI 系统的挑战。
除此之外,Watson 提及的多数影片都是孩童的日常生活(当然,问题在于如何被利用),YouTube 也与国际失踪与受剥削儿童中心(National Center for Missing)合作,向执法部门报告不适宜的评论。
YouTube 是否会改变政策来承担更大责任还有待观察,但政治压力可能是一种激励力量,为网络平台的监管提供动力;随着越来越多国家的监管单位决定对社群媒体祭出相关措施,包括要求网络公司承担明确的法律责任,甚至也要求用户对发表内容也负担责任,相关平台在隐私及审核制度上或许会更完善。
- Youtube under fire for recommending videos of kids with inappropriate comments
(首图来源:pixabay)
延伸阅读:
- YouTube 宣布禁止危险或恶作剧影片上架
- YouTube 携手维基百科,打击阴谋论影片
- 去除不良影片,孩童版 YouTube Kids 将取消算法改由人工挑选推荐