当人类干预时,法学硕士的种族主义更加严重。
研究人员发现,随着模型变大,隐蔽的刻板印象也会得到强化。 这一发现对于 OpenAI、Meta 和 Google 等正在竞相发布更大模型的聊天机器人制造商来说可能是一个警告。 随着模型变得更大、更具表现力,它们使用的训练数据和参数也会增加。 但如果由此产生的偏见进一步恶化,那么公司就需要更好的工具来对抗它。 答案尚不清楚。 目前尚不清楚在训练数据中添加更多 AAE 数据或改进反馈工作是否足够。
Pratyusha R. Kalluri 是斯坦福大学博士生,也是该研究的合著者。 她说,“这表明公司如何通过试图找到报纸或报纸上报道的最新偏见来玩弄暴力游戏。”“隐蔽的偏见挑战这是一种合理的方法。”
该论文的作者使用极端的例子来展示种族偏见如何产生严重影响,例如要求人工智能确定被告是否被判处死刑。 Ghosh 指出,使用人工智能模型做出关键决策并不是科幻小说。 事情就发生在今天。
来源和详细信息:
https://www.technologyreview.com/2024/03/11/1089683/llms-become-more-covertly-racist-with-human-intervention/