最近的人工智能研究发现了一个简单的自我监督修剪指标,允许他们在不牺牲性能的情况下丢弃 20% 的 ImageNet,通过数据修剪击败神经缩放定律

通过将神经缩放定律应用于机器学习模型,这涉及增加计算和训练数据点的数量和大小,您可以提高模型的性能。 我们应该能够将测试中的错误减少到一个很小的值,因为我们拥有更多的计算能力并且可以收集比以往更多的数据。

这种方法并不理想。 尽管拥有足够的计算能力,但由于其高昂的计算成本,扩展是不可持续的。 例如,要将误差从 3.4% 降低到 2.8%,可能需要数量级更多的数据、计算或能量。 有什么解决办法?

来源和详细信息:
https://www.marktechpost.com/2022/12/01/latest-ai-research-finds-a-simple-self-supervised-pruning-metric-that-enables-them-to-discard-20-of-imagenet-without-sacrificing-performance-beating-neural-scaling-laws-via-data-pruning/

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注