包阅导读总结
1. 关键词:AI争霸、超算集群、OpenAI、马斯克、xAI
2. 总结:OpenAI 将打造 10 万块 GB200 超算,马斯克的 xAI 建 10 万块 H100 超算,预计本月末训练。双方竞争激烈,均为追求 AGI,超算建设面临诸多问题与挑战。
3. 主要内容:
– OpenAI 的超算计划:
– 计划打造由 10 万块 GB200 组成的超算。
– 马斯克的 xAI 超算计划:
– 号称打造世界最大超算集群,由 10 万块 H100 搭建,本月末投入训练。
– 已向甲骨文购买 24000 块 H100,Grok 2 正在微调、修复,下月发布。
– 5 月曾讨论从甲骨文租用芯片的多年协议,因问题陷入僵局。
– 已完成 60 亿美元 B 轮融资,资金投入算力建设。
– 相关情况:
– 超算建设存在诸多挑战,如建造速度、电力供应等。
– 不同公司在超算建设中合作与竞争并存。
思维导图:
文章地址:https://mp.weixin.qq.com/s/_OGcYdscjYcSK7m8IXlb4w
文章来源:mp.weixin.qq.com
作者:新智元
发布时间:2024/7/16 5:16
语言:中文
总字数:2464字
预计阅读时间:10分钟
评分:84分
标签:AI争霸战,超算集群,数据中心,OpenAI,xAI
以下为原文内容
本内容来源于用户推荐转载,旨在分享知识与观点,如有侵权请联系删除 联系邮箱 media@ilingban.com
【新智元导读】马斯克官宣xAI建造的世界最大超算集群,由10万块H100搭建,预计本月末开始投入训练。另一边,OpenAI再次加码,将打造由10万块GB200组成的超算,完全碾压xAI。
为了抵达AGI,全世界的公司们准备要烧掉所有的GPU!
Information独家报道称,OpenAI的下一个超算集群,将由10万块GB200组成。
这可用上了英伟达迄今为止最强的AI芯片。
另一边,xAI也在打造号称「世界上最大超算集群」,由100k H100组成,并将在本月末投入训练。
在马斯克最新帖子中,针对报道——xAI与甲骨文终止服务器交易谈判,立即做出了回应。
他表示,xAI已经向甲骨文购买了24000块H100,并在这些芯片上训练的Grok 2。
Grok 2目前正在进行微调、错误修复,预计下个月准备就绪发布。
与此同时,xAI也在自行建设10万块H100搭建的集群,目标是实现最快的训练完成时间,计划本月晚些时候开始训模型。
这将成为世界上最强的训练集群,优势不言而喻。
我们决定自行建设10万块H100芯片系统,以及下一代主要系统的原因是,我们的核心竞争力取决于能否比其他AI公司更快。这是赶上竞争对手的唯一途径。
甲骨文是一家优秀的公司,还有另一家公司(暗指微软)在参与OpenAI的GB200集群项目中也表现出很大潜力。但是,当我们的命运取决于成为速度最快的公司时,我们必须亲自掌控,而不能只做一个旁观者。
简言之,在这个日新月异的时代下,想要超越竞争对手,必须确保有绝对的速度优势。
今年5月,Information曾报道,xAI一直在讨论一项多年协议,即从甲骨文租用英伟达AI芯片。
这笔交易预计高达100亿美元,却因一些问题陷入僵局。
其中就包括,马斯克要求超算建造的速度,完全超越了甲骨文勺想象。还有甲骨文勺担心xAI首选地点没有足够的电力供应。
为了改变这一现状,只能依靠自力更生了。
现在,xAI在田纳西州孟菲斯市,正建起自己的AI数据中心,其中用到了Dell和Supermicro出货的英伟达芯片。
根据参与谈判的人士透露,甲骨文并没有参与这个项目。
其实,在此之前,xAI已经从甲骨文租用了许多英伟达芯片,成为这家云计算GPU供应商最大的客户之一。
尽管更广泛的谈判失败,但这项协议目前仍将继续。
从马斯克最新回应中,可以看出,甲骨文芯片数量已经从5月份的16000块增长到了24000块。
10万块H100串联
不过,马斯克依旧希望建造一台配备10万块英伟达GPU的超级计算机,将其称为「Gigafactory of Compute」。
他表示,xAI需要更多的芯片,来训练下一代AI模型——Grok 3.0。
老马在5月曾向投资者表示,希望在2025年秋季之前让这台超级计算机运行起来,而且他将个人负责按时交付超级计算机,因为这对于开发LLM至关重要。
他多次公开称,10万个H100组成的液冷训练集群,将在几个月后上线。
之所以Grok模型迭代至关重要,因其为X社交应用订阅套餐的一部分,起价为每月8美元,包含了各种功能。
就在上周,xAI还发布了马斯克和其他员工,在数据中心合照。照片后背景中,摆满了服务器。
虽然帖子中,并没有指明位置。但在6月的时候,Greater Memphis Chamber的主席表示,xAI正在孟菲斯的伊莱克斯工厂建造一台超算。
位于田纳西州孟菲斯的新xAI工厂的公用设施布局
戴尔公司CEO Micael Dell表示,戴尔正帮助xAI建立一个数据中心。
另外,Supermicro的CEO Charles Liang还曾发布了一张自己与马斯克在数据中心的合影,也证实这家公司和xAI的合作关系。
值得一提的是,上个月马斯克宣布xAI已经完成,惊人的60亿美元B轮融资,公司估值达到240亿美元。
B轮融资的投资者包括Andreessen Horowitz、红杉资本、Valor Equity Partners、Vy Capital和Fidelity Management&Research等8位投资者。
他个人表示,最新一轮融资中,大部分资金将投入到算力建设之中。
显然,xAI建设的超算项目,是其追赶OpenAI努力的一部分。
其实,另一边,OpenAI也在马不停蹄地加速研发速度,不敢有一丝懈怠。
两位知情人士透露,甲骨文与微软的交易,涉及一个由10万块英伟达即将推出的GB200芯片组成的集群。
等这一超算建成之时,马斯克10万块H100也就不算什么了。
有网友对此惊叹道,集群中英伟达GB200芯片数量,大致相当于英特尔80286处理器中的晶体管数量 我很惊讶在我的有生之年能看到这一幕。
还有人对此分析道,「GB200的训练性能将是H100的4倍」。
GPT-4是在90天内用25,000个A100(H100的前代产品)训练出来的。
所以理论上你可以用100,000个GB200在不到2天内训练出GPT-4,尽管这是在理想条件下,可能并不完全现实。
但这确实让人不禁想象,他们用这个超级计算机集群在90天内能训练出什么样的AI模型,而这个集群预计将在2025年第二季度投入运行。
在GTC 2024大会上,老黄曾介绍道,H100比A100要快4倍,B200比H100快3倍。
据熟悉GPU云定价的人士称,假设两家公司签署了一份多年期协议,那么租用这样一个集群的成本可能会在两年内达到50亿美元左右。
这一集群,预计在2025年第二季度准备就绪。
甲骨文将从英伟达购买芯片,然后租给微软,微软再把芯片提供给OpenAI。毕竟,这已经成为微软和OpenAI互利互惠一贯的做法了。
微软向OpenAI投钱,作为回报,获得OpenAI新模型的访问权。
根据参与规划的人士称,甲骨文计划将这些芯片放在德克萨斯州阿比林的一个数据中心。
这笔交易同时表明,微软自己还无法获得足够的英伟达芯片。
而且,云计算供应商之间相互租用服务器的情况,其实并不常见,但对英伟达芯片的强烈需求,才导致了这场不寻常的交易。
去年,微软曾与CoreWeave达成了类似的租用服务器协议,以增加英伟达服务器的容量。