ChatGPT 每天消耗数百万美元。 计算机科学家能让人工智能的效率提高一百万倍吗?
ChatGPT 的运行成本很高,每天要花费数百万美元。 创建自然语言人工智能的公司 OpenAI 推出了 ChatGPT Plus——每月 20 美元的订阅费。 我们大脑的效率是 ChatGPT 云硬件中使用的 GPU 和 CPU 的一百万倍。 神经形态计算领域的研究人员正在努力将基于云的服务器群的奇迹带到小型设备上,例如我们家中、医院和办公室中的设备。
在人脑中发现的计算湿件之后对计算硬件进行建模是关键之一。
Dylan Patel、Afzal Ahmed 和 SemiAnalysis 表示,在合理规模上使用模型时,“推理成本远大于训练成本”。 事实上,每周推理 ChatGPT 的成本超过培训成本。 如果像 ChatGPT 这样的 LLM 被部署在搜索领域,这意味着 300 亿美元的利润从谷歌转移到了计算行业的手中。”
像他们那样运行这些数字的含义是惊人的。
他们写道:“要在每次谷歌搜索中部署当前的 ChatGPT,我们需要 512,820 台 HGX A100 服务器,总共 4,102,568 个 GPU。”服务器和网络的总成本超过 1000 亿美元,Nvidia 将获得很大一部分 的。
来源和详细信息:
https://www.forbes.com/sites/johnkoetsier/2023/02/10/chatgpt-burns-millions-every-day-can-computer-scientists-make-ai-one-million-times-more-efficient/?ss=ai&sh=13383a06944e