活动人士称,谷歌试图说服人们使用“包容性语言”是有缺陷和侵扰性的

谷歌新的“包容性语言”助手使用人工智能检测 “歧视” 词,并建议用户将它们换成政治上更正确的术语。 言论自由和隐私倡导者称该功能破坏了 “思想自由。”

谷歌在 4 月初宣布了该工具,作为一系列 “辅助写作功能” 适用于 Google 文档用户。 其中一些由人工智能驱动的附加组件为作家提供了更简洁明快的短语,而另一些则完善了语法。

然而,谷歌表示,凭借其新的“包容性语言”助手, “潜在的歧视性或不适当的语言将被标记,以及如何使您的写作更具包容性和适合您的受众的建议。”

用户很快注意到它的提示潜入他们的工作,并在 Twitter 上发布了谷歌建议的截图。 “主板”一词被标记为可能不敏感,“家庭主妇”也是如此,谷歌建议应将其替换为“留在家里的配偶”。

“Mankind”应该换成“humankind”,“policeman”应该换成“police officer”,“landlord”应该换成“property owner”或“owner”。 Vice 上周报道的其他技术短语包括“黑名单/白名单”和“主/从”。

尽管强调这些常用术语可能具有冒犯性,但谷歌的助手并未在前三K党领袖大卫杜克的采访记录中发出警告,其中杜克反复使用“n****r”这个词来形容黑人,Vice’s记者发现。

该功能可以关闭,目前仅适用于谷歌 Workspace 软件的企业用户,引起了隐私和反审查活动人士的警觉。




“使用谷歌新的辅助写作工具,该公司不仅会阅读你输入的每个单词,还会告诉你输入什么,” Big Brother Watch 的主管 Silkie Carlo 周六告诉《每日电讯报》。 “这种言论监管非常笨拙、令人毛骨悚然和错误……像这样的侵入性技术破坏了隐私、言论自由和日益增长的思想自由。”

其他人则认为助理扼杀了创造性表达。 “如果‘地主’是更好的选择,因为它在小说中更有意义、叙事性更强怎么办?” 学者拉扎尔拉迪克问电讯报。 “如果‘房主’听起来很木讷,没有引起同样的辛酸感怎么办? 所有书面作品——包括书面艺术形式,如小说、歌词和诗歌——都应该遵循同样无聊的模板吗?”

自 2020 年以来,谷歌要求其员工在代码和文档中使用这种包容性语言,并发布了一份详尽的禁用词列表。 在谷歌的规定下,“黑盒测试”变成了“不透明盒测试”,“工时”被“工时”取代,“guys”的临时复数被严格禁止。

据谷歌称,该功能背后的人工智能仍在不断发展,并从人类输入中学习。 根据公司声明,最终目标是净化英语 “全部” 偏见和歧视。

“我们的技术一直在改进,我们还没有(可能永远不会)有一个完整的解决方案来识别和减轻所有不需要的单词关联和偏见,” 谷歌发言人告诉《每日电讯报》。

您可以在社交媒体上分享这个故事:

Source: www.rt.com



Leave a Reply