人工智能硬件问题
访问此链接并获得 Brilliant 20% 的折扣! https://brilliant.org/NewMind/
在 20 世纪下半叶,信号和数据可以表示为离散状态的想法已有千年历史。 它在半导体行业引发了一场革命。 数字电子是一个发展迅速、基础雄厚的领域,是这个新信息时代的基础。 由于自动化和工具的丰富,随着需求的增加,扩大设计规模相对容易。 AI 应用程序和机器学习消耗的功率无法在当前的处理架构上增加。
麦克
在神经网络的数字实现中,权重和输入数据必须通过网络中的多次累加操作不断获取和保存。 大部分功率用于获取和存储模型参数和输入数据,然后将其发送到 CPU 的算术单元,在那里进行乘法累加运算。 通用 CPU 中典型的多重累加消耗的功率比计算高出两个数量级以上。
GPU。
它们需要更多的运算单元和高速内存接口来处理 3D 图形。 正是这一特性使它们在机器学习方面更加高效,因为它们可以同时处理数百个多重累加操作。 GPU 使用 32 位浮点运算通过尾数、指数和符号来表示数字。 因此,以 GPU 为目标的机器学习应用程序被迫使用浮点数。
亚瑟士
与 GPU 或通用 CPU 相比,这些 AI 专用芯片提供更高的每焦耳数据传输率。 发现计算精度的急剧下降不会影响某些类型的神经网络的准确性。 一个芯片上可以集成的多重累加器的数量将变得无法增加,位精度也会降低。
低功耗人工智能
来源和详细信息:
https://youtube.com/watch?v=owe9cPEdm7k&feature=share