微软的小语言模型在标准化数学测试中优于较大的模型
微软的人工智能研究小组报告称,该公司的小型语言模型 Orca-Math 在标准化数学测试中的表现优于大型模型。 该小组在 arXiv 服务器上发表了一篇论文,描述了他们使用小学数学 8K 基准 (GSM8K) 对 Orca-Math 进行的测试,以及与其他法学硕士相比其表现如何。
众所周知,许多受欢迎的法学硕士,例如ChatGPT,都以其会话能力而闻名。 然而鲜为人知的是,它们还可以解决数学中的文字问题。 AI 研究人员在 GSM8K 数据集上测试了他们执行此类任务的能力,该数据集包含 8,500 个小学数学应用题,需要多步推理。 他们还包括了他们的正确答案。
微软的研究团队将 Orca-Math 的结果与更大的人工智能模型的结果进行了比较,Orca-Math 是另一个微软团队设计的用于解决数学应用问题的人工智能应用程序。
来源和详细信息:
https://scitechupdates.com/microsofts-small-language-model-outperforms-larger-models-on-standardized-math-tests/