最近Facebook对错误信息采取了更严厉的立场
该公司禁止与 QAnon 阴谋论并严厉打击 误传但这还不够
据最近 研究由非营利性倡导组织Avaaz提出Facebook的主要失败是基本失败散布错误信息的Facebook Pages正在使用该平台的打击假新闻最重要工具之一:其AI系统
当Facebook的事实检查人员对帖子中的主张进行揭穿时它的AI应该会标记并标记传播相同错误信息的帖子的替代版本但是研究表明佩奇斯正在绕开这些事实检查
还请参见:国会发现Facebook的“垄断权”损害了用户隐私
怎么样通过略微调整用于散布错误信息的照片和模因
Avaaz的研究人员调查了119个“重复错误信息”(这些页面至少传播了3次错误信息)以了解这些页面如何绕过Facebook的AI检测
原来他们要做的就是更改他们共享的照片或模因上的背景颜色或字体他们还可以更改文本在模因上的位置或尝试裁剪文本
以下是该研究的示例显示了两个内容传播了相同的事实检查声明只需更改左侧图像的格式和文本位置即可避免使用Facebook的事实检查标签
另一个解决方法是简单地从图像中获取文本然后将同一文本复制并粘贴到其他图像或模因上或者他们可以从模因中获取复制的文本然后将其粘贴为Facebook状态所有这些方法都将避免Facebook的AI检测这意味着内容显示时将没有事实检查或警告标签
Avaaz估计从2019年8月到2020年8月这119个“重复错误信息”页面的浏览量累计达到52亿次事实核查的帖子的替代版本大约浏览了1.41亿次互动次数达560万次
该研究指出这个错误信息袭击了总统候选人唐纳德·特朗普和乔·拜登以及其他民主党人和共和党人但是在收到最多互动的“重复误报”页面列表上有明显的党派倾向10人中有8人分享右翼内容
国会议员的脸书网页是共和党众议员史蒂夫·金(Steve King)
尤其值得关注的是政客免于遵守Facebook的许多规定一个这样的政策这已经 常规地 自从去年年底宣布以来受到批评基本上允许公务员躺在社交媒体平台上
实际上在平台上对政治人物进行事实检查的一种方法是他们是否共享已经经过事实检查的内容但是Avaaz研究中发现的变通办法可以帮助政客避免这种情况
阿瓦兹(Avaaz)在发布研究结果之前向Facebook提出了自己的发现该组织表示Facebook在其标记的738个帖子中有4%添加了警告标签它删除了另外3%大多数没有标签就留在平台上