国科网

2025-01-23 01:00:06  星期四
立足国科融媒,服务先进科技
英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元

点赞

0
发布时间:2024年05月29日 浏览量:317次 所属栏目:人工智能 发布者:田佳恬

最近几年,随着大语言模型的飞速发展与迭代,科技巨头们都竞相投入巨额财力打造超级计算机(或大规模 GPU 集群)。他们认为,更强大的计算能力是实现更强大 AI 的关键。

早在 2022 年,Meta 即宣布与英伟达共同打造大型 AI 研究超级计算机「AI Research SuperCluster」(RSC),它由 760 个英伟达 DGX A100 系统组成,共有 6080 块 GPU,性能非常强大。

如今,马斯克旗下人工智能初创公司 xAI 传出了打造超级计算机的消息。

据外媒 The Information 报道,最近马斯克向投资者透露,xAI 计划建造超级算力工厂「Gigafactory of Compute」,为 AI 聊天机器人 Grok 的下一个版本提供算力支持。

据悉,xAI 计划将 10 万块 H100 专用 GPU 串联一台超级计算机,其规模至少是当前最大 AI 集群的四倍。如果 xAI 的计划能够顺利完成,这台超级计算机将耗费数十亿美元和大量电力。

不过,马斯克似乎很有信心,他的目标是在 2025 年秋季之前让这台超级计算机「跑」起来,并亲自负责按时交付。

当然,xAI 不想单打独斗, 其有望与甲骨文公司(Oracle)合作建造超级计算机。我们知道,xAI 是 Oracle 最大的 H100 服务器芯片租赁客户,已经使用了后者超过 1.5 万块 H100 芯片。

届时,xAI 超级算力工厂建成之后,10 万块 GPU 芯片集群将加速 Grok 聊天机器人的开发,减少语音限制。目前,Grok 的最新版本为 Grok 1.5,该版本实现了长上下文理解和高级推理能力,可以处理 128K token 的长上下文窗口。

而据马斯克此前透露,xAI 正在训练的 Grok 2 已经耗费了约 2 万块 H100 GPU,未来进阶版本 Grok 3 可能需要高达 10 万块 H100 GPU。看来,马斯克已经在为 Grok 3 未雨绸缪了。

最后,对于超级算力工厂而言,最关键的找到一个电力充沛(可能需要 100MW)的位置。因此,AI 数据中心位置的选择非常重要。

至于建成的意义是什么?这个规模庞大的超级算力工厂将帮助 xAI 追赶 OpenAI、微软等资金更为雄厚的竞争对手。

此前同样据 The Information 报道,微软和 OpenAI 拟投入超 1000 亿美元打造一个数据中心项目,其中包括一台「星际之门」(Stargate)的 AI 超级计算机,配备了数百万个专用服务器芯片,旨在为 OpenAI 实现 AGI 提供动力。

其实,这也不是马斯克第一次投入超算项目。此前,特斯拉就被曝出到 2024 年底,投入远超 10 亿美元打造一台「Dojo 项目」的内部超级计算机,用于处理数据和视频,提高自动驾驶能力并最终实现完全自动驾驶。

此次, 马斯克又在大语言模型领域斥巨资建造超级计算机。有人表示,如果消息属实的话,这将成为游戏改变者。当然,英伟达是最大的赢家。

参考链接:https://www.theinformation.com/articles/musk-plans-xai-supercomputer-dubbed-gigafactory-of-compute?rc=ks2jbm

分享说明:转发分享请注明出处。

    热点图讯
    最新图讯
    相关图讯
    网站简介  |   联系我们  |   广告服务  |   监督电话
    本网站由国科网运营维护 国科网讯(北京)技术有限公司版权所有  咨询电话:010-88516927
    地址:北京市海淀区阜石路甲69号院1号楼1层一单元114
    ICP备案号:京ICP备15066964号-8   违法和不良信息举报电话:010-67196565
    12300电信用户申诉受理中心   网络违法犯罪举报网站   中国互联网举报中心   12321网络不良与垃圾信息举报中心   12318全国文化市场举报网站
    代理域名注册服务机构:阿里巴巴云计算(北京)有限公司