科技公司比以往任何时候都更加积极地试图阻止恐怖分子、白人至上主义者、阴谋论者和其他仇恨个人、组织和运动利用他们的平台,但政府和公众要求采取更多行动的压力越来越大。 如果公司决定采取更积极的行动,他们能做什么? 大部分辩论都围绕着是删除冒犯性内容还是保留它,而忽略了两者之间的许多选择。 本文为科技公司提供了一系列选择,讨论了它们在实践中的运作方式、优势以及局限性和风险。 它提供了许多可用选择的入门知识,然后讨论了影响各种方法的众多权衡和限制。

从广义上讲,公司可以采取的行动分为三类。 首先,他们可以删除内容、删除单个帖子、取消用户甚至整个社区的平台,或者简单地删除冒犯性和危险的内容。 其次,他们可以尝试重塑分布——降低攻击性帖子的可见度、降低(或至少不宣传)某些类型的内容(如疫苗错误信息)以及使用警告标签——或者尝试减少或限制对某些材料的参与,但让它留在他们的平台上。 最后,公司可以尝试重塑其平台上的对话,以降低攻击性内容传播可能性的方式赋予版主和用户权力。

这些努力将出现紧张局势和新问题。 即使某些内容仍然存在但没有被放大或被视为有限,审查言论的问题仍将存在。 公司也有动机删除太多内容(在极少数情况下,太少)以避免批评。 流程透明度是大多数公司的弱点,但仍然至关重要,应该大大扩展,以便用户、立法者、研究人员和其他人能够更好地判断公司工作的有效性。 最后,一些有毒用户会去别处,在更不起眼的平台上传播他们的仇恨。 尽管存在这些限制和权衡,但本文中提供的选项提供了一个有用的菜单,公司可以使用该菜单来定制他们的方法,以便他们可以为用户提供更有活力和更少有害的用户体验。

该论文也可在此处获得。



Source: www.brookings.edu



Leave a Reply