当AI产生幻觉时
Sam Altman(OpenAI 的前首席执行官,也可能是未来的首席执行官)今年秋天就人工智能发表了一个出人意料的声明。 ChatGPT 和其他人工智能系统会“产生幻觉”,即感知模式,生成无意义的输出。 奥特曼解释说,这不是人工智能系统的错误,而是它们“魔法”的一部分。 事实上,“这些人工智能系统具有创造力,可以产生新的想法,这是一种巨大的力量。”这引起了人们的注意,因为人类往往善于发挥创造力,而不会在事实上犯错误。 还有什么比诉诸创造力更好的方式来消除对准确性的担忧呢?
人们对人工智能系统的“幻觉”是什么意思? 当 GPT4 尝试引用学术来源时会发生以下情况:
来源和详细信息:
https://nautil.us/when-ai-hallucinates-448711/