一种新方法将机器学习模型的推理与人类拥有的推理进行比较

理解机器学习模型做出某些决定的原因与确定这些决定是否正确一样重要。 机器学习算法可能会正确预测皮肤上的病变是癌性的。 然而,它本可以根据临床照片中不相关的光点预测到这一点。

尽管有工具可以帮助专家理解模型的推理,但这些方法通常只能提供对当时一个决策的洞察力,必须进行人工评估。 大多数模型都是用数百万个数据点训练的,这使得人类几乎不可能分析足够多的决策来检测模式。

MIT Research 和 IBM Research 的研究人员开发了一种新方法来帮助用户快速分析机器学习模型的行为。 他们开发的技术 Shared Interest 结合了定量指标,将模型的推理与人类的推理进行比较。

来源和详细信息:
https://techxplore.com/news/2022-04-method-machine-learning-human.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注