Sam Altrman:OpenAI将上线百万个GPU
- 2025-07-22 18:23:24

来源:内容来自tomshardware。
OpenAI 首席执行官 Sam Altman 并不以小格局思维著称,但他最近的言论甚至超越了他一贯大胆的科技言论的界限。Altman 在 X 上发布的一篇新帖子中透露,OpenAI 有望在今年年底前“上线超过 100 万个 GPU”。单凭这个数字就令人震惊——想想埃隆·马斯克的 xAI,今年早些时候凭借其 Grok 4 模型引起轰动,它运行在大约 20 万个英伟达 H100 GPU 上。OpenAI 将拥有其五倍的算力,而这对于 Altman 来说,未来仍然不够。“为团队感到非常自豪……”他写道,“但现在他们最好努力想办法将其提升 100 倍,哈哈。”

“哈哈”可能听起来象是在开玩笑,但 Altman 的过往记录表明并非如此。早在二月份,他承认 OpenAI 不得不放慢 GPT-4.5 的推出速度,因为他们“GPU 告罄”。这不仅仅是一个小插曲;考虑到英伟达的顶级 AI 硬件也已售罄到明年,这是一个警钟。Altman 从那时起将计算规模化作为首要任务,寻求的合作伙伴关系和基础设施项目更象是国家级运营,而非公司 IT 升级。当 OpenAI 在今年晚些时候达到 100 万 GPU 的里程碑时,这不仅仅是社交媒体上的炫耀,它将巩固自己作为全球最大的 AI 计算消费者的地位。
无论如何,让我们谈谈那个 100 倍的目标,因为它听起来确实很疯狂。按照目前市场价格,1 亿个 GPU 将花费约 3 万亿美元——几乎是英国的 GDP——这还不包括电力需求或容纳它们所需的数据中心。英伟达甚至不可能在短期内生产出那么多芯片,更不用说处理所有这些芯片的能源需求了。然而,这就是驱动 Altman 的那种登月式思维。这与其说是一个字面目标,不如说是为 AGI(通用人工智能)奠定基础,无论这意味着定制芯片、奇异的新架构,还是我们尚未见过的东西。OpenAI 显然想一探究竟。
这方面最大的活生生证据就是 OpenAI 在德克萨斯州的数据中心,现在是全球最大的单一设施,消耗约 300 兆瓦电力——足以为一个中型城市供电——并有望在 2026 年年中达到 1 吉瓦。如此巨大且不可预测的能源需求已经引起了德克萨斯州电网运营商的密切关注,他们警告说,要稳定如此规模的站点的电压和频率,需要昂贵、快速的基础设施升级,即使是州公用事业公司也难以匹配。尽管如此,创新必须占上风,泡沫不应破裂。
该公司也不仅仅是囤积英伟达硬件。虽然 微软的 Azure 仍然是其主要的云骨干,但 OpenAI 已与 Oracle 合作 建设自己的数据中心,并有传言称正在探索谷歌的 TPU 加速器,以使其计算堆栈多样化。这是一场更大的军备竞赛的一部分,从 Meta 到 亚马逊,每个人都在开发内部 AI 芯片,并大力投资高带宽内存(HBM)以满足这些庞大模型的需求。Altman 也曾暗示 OpenAI 自己的定制芯片计划,考虑到公司不断增长的规模,这将是合乎逻辑的。
Altman 的评论也双重提醒了该领域发展之快。一年前,一家拥有 1 万个 GPU 的公司听起来象是一个重量级竞争者。现在,即使是 100 万个也感觉只是通往更大目标的垫脚石。OpenAI 的基础设施推动不仅仅是为了更快的训练或更顺畅的模型发布;它旨在在一个计算是最终瓶颈的行业中获得长期优势。当然,英伟达非常乐意提供构建模块。
1 亿个 GPU 现实吗?现在不现实,除非在制造、能源效率和成本方面取得突破。但这就是重点。Altman 的愿景不受现有条件的限制,而是着眼于下一步的可能性。到今年年底将上线的 100 万个 GPU 是一个真正的催化剂,标志着 AI 基础设施的新基线,这个基线似乎 每天都在多样化。除此之外,一切都是雄心,如果 Altman 的历史可以作为参考,那么将其视为仅仅是炒作可能是不明智的。
参考链接
https://www.tomshardware.com/tech-industry/sam-altman-teases-100-million-gpu-scale-for-openai-that-could-cost-usd3-trillion-chatgpt-maker-to-cross-well-over-1-million-by-end-of-year
点这里👆加关注,锁定更多原创内容
*免责声明:文章内容系作者个人观点,半导体芯闻转载仅为了传达一种不同的观点,不代表半导体芯闻对该观点赞同或支持,如果有任何异议,欢迎联系我们。

推荐阅读


喜欢我们的内容就点“在看”分享给小伙伴哦~

- 点赞 0
-
分享
微信扫一扫
-
加入群聊
扫码加入群聊