谷歌从 Gmail 的 Smart Compose 中删除了性别代词以避免 AI 偏见

 邮箱网  0条评论  2769次浏览  2022年01月10日 星期一 20:48

分享到: 更多
邮箱网讯 1月10日消息 Gmail 的Smart Compose是 Google 多年来最有趣的 AI 功能之一,它可以预测用户将在电子邮件中写什么并主动为他们完成句子。但与许多 AI 产品一样,它的智能程度取决于它所训练的数据,并且容易出错。这就是为什么谷歌阻止 Smart Compose 在电子邮件中建议基于性别的代词,如“他”和“她”——谷歌担心它会猜错性别。

路透社报道称,该限制是在该公司的一名研究科学家于今年 1 月发现该问题后引入的。当 Gmail 建议一个后续问题“你想见他吗”时,研究人员在消息中输入了“我下周要见一位投资者”,这对投资者进行了误判。

Gmail 产品经理 Paul Lambert 告诉路透社,他的团队试图通过多种方式解决这个问题,但没有一个足够可靠。最后,Lambert 说,最简单的解决方案就是将这些类型的回复一起删除,谷歌表示这一变化影响不到 1% 的 Smart Compose 预测。兰伯特告诉路透社,在这种情况下保持谨慎是值得的,因为性别是一件“大事”,容易出错。

GMAIL 的性别偏见只是一个更大问题的小例子

这个小错误是使用机器学习构建的软件如何反映和加强社会偏见的一个很好的例子。与许多人工智能系统一样,Smart Compose 通过研究过去的数据来学习,梳理旧电子邮件以找到它应该建议的单词和短语。(它的姊妹功能 Smart Reply 会建议对电子邮件进行简短的回复。)

在兰伯特的例子中,Smart Compose 似乎从过去的数据中了解到,投资者更可能是男性而不是女性,因此错误地预测了这一点也是如此。

这是一个相对较小的失误,但表明一个更大的问题。如果我们相信使用过去数据训练的算法做出的预测,那么我们很可能会重复过去的错误。在电子邮件中猜错性别并不会产生巨大的后果,但人工智能系统在医疗保健、就业和法院等领域做出决策呢?就在上个月,有报道称亚马逊不得不放弃使用机器学习训练的内部招聘工具,因为它对女性候选人有偏见。人工智能偏见可能会让你失去工作,或者更糟。

对于谷歌来说,这个问题可能是巨大的。该公司正在将算法判断整合到其更多产品中,并在全球销售机器学习工具。如果其最明显的人工智能功能之一就是犯了如此微不足道的错误,那么消费者为什么要信任该公司的其他服务呢?

该公司显然已经看到了这些问题的到来。在Smart Compose的帮助页面中,它警告用户它使用的 AI 模型“也可以反映人类的认知偏见。意识到这一点是一个好的开始,围绕如何处理它的对话正在进行中。” 不过,在这种情况下,该公司并没有修复太多问题——只是消除了系统出错的机会。

标签:gmail谷歌

我的评论:

请  后发表评论。