Z 您现在的位置:首页 > 新闻资讯 > 娱乐八卦 > ChatGPT 将控制超过 30,000 个 Nvidia GPU

ChatGPT 将控制超过 30,000 个 Nvidia GPU

2024-08-09 04:02:17来源:www.luwei123.com发布:LR

根据最新的TrendForce,人工智能 (AI) 将成为 Nvidia 最大的收入来源之一(在新标签页中打开)投影。该研究公司估计 OpenAI 的 ChatGPT 最终将需要超过 30,000 个 Nvidia 显卡。值得庆幸的是,游戏玩家无需担心,因为 ChatGPT 不会接触最好的游戏显卡,而是利用 Nvidia 的计算加速器,例如A100。

Nvidia 一直有嗅探淘金热的本领。这家芯片制造商处于加密货币繁荣的最前沿,从矿工那里获得了创纪录的收入。Nvidia 再次发现自己站在了似乎是下一个最好的东西的前线:人工智能。人工智能热潮已经到来,过去几个月出现的所有人工智能文本和图像创作者就是例证。

参考 A100(安培)加速器,TrendForce 估计 ChatGPT 需要大约 20,000 个单元来处理训练数据。然而,随着 OpenAI 继续在商业上部署 ChatGPT 和该公司的生成式预训练变压器 (GPT) 模型,这个数字将显着增加,可能超过 30,000 个单元。A100 的价格在 10,000 美元到 15,000 美元之间,具体取决于配置和外形。因此,至少,Nvidia 的收入有望达到 3 亿美元。这个数字可能会略低,因为 Nvidia 可能会根据所需卡的数量给 OpenAI 打折。

Nvidia 还将 A100 作为DGX A100系统的一部分进行销售,该系统具有八个加速器,售价高达 199,000 美元。鉴于 OpenAI 的运营规模,该公司可能会单独购买 A100 并将它们堆叠成集群。另一方面,DGX A100 对于想要涉足 AI 的小型企业来说是一个很有吸引力的选择。

虽然 A100 非常适合 AI,但 Nvidia 已经开始发售 H100 ( Hopper),它是 A100 的直接替代品。从理论上讲,H100 的性能比其前身高出三倍。此外,根据 Nvidia 的说法,H100 的扩展性甚至比 A100 更好,并且在 AI 训练中提供高达九倍的吞吐量。

本站内容来源于互联网,旨在传递更多信息,并不意味着本站赞同其观点或证实其真实性。若涉及侵权问题,请与我们联系,我们将尽快予以处理

Copyright © 2017-2024 www.luwei123.com All rights reserved 芦苇下载站 版权所有

备案号:闽ICP备2024036174号-5

芦苇下载站订阅号