Facebook 将更严格惩罚对屡次分享假消息或误导性内容的个人账户,这是社群平台打击假消息的扩大措施。
新系统下,Facebook将“减少所有内容发表”,这些内容来自哪些经常分享错误资讯的人,将更难被其他人看到。Facebook已对发错误讯息的网页和群组采取措施,但之前没有扩大到个人用户。Facebook确实限制事实查核人员标记帖子的传播范围,但没有惩罚分享假消息的账户持有人。
Facebook拒绝说明新处罚生效前,一个用户的帖子需要标记多少次。Facebook还将开始提示用户,如果用户点赞经常分享错误消息的页面,会有系统提示弹出提醒用户:已被事实查核人员标记错误资讯。
(Source:Facebook)
官方Blog写道:“这将有助人们做出是否关注该页面的明智决定。”
这些措施是Facebook遏制网络错误消息传播的最新政策。为提供可靠讯息,尤其选举和新冠肺炎问题,Facebook为新冠肺炎和气候变化等主题创建专门资讯中心。总体来说,Facebook一直努力处理近30亿用户的谣言和误导性内容。
(本文由 雷锋网 授权转载;首图来源:Facebook)
延伸阅读:
- 打击假讯息,欧盟对科技大厂提新准则