首页 科技快讯 英伟达摊上大事儿了

英伟达摊上大事儿了

来源:晰数塔互联网快讯 时间:2024年08月04日 21:17

英伟达摊上大事儿了。

 

据《The Information》报道,英伟达的最新杀手锏——采用Blackwell架构的AI GPU从原定的今年Q3推迟到2025年Q1推出。据称,这款 GPU 存在设计缺陷,因此需要推迟发布产品以解决问题。

 

这一推迟直接鸽了微软、Meta 和 xAI 等大客户,这些公司总共订购了价值数百亿美元的芯片,关键数据中心的建设可能会因此受到影响。

 

有从业者表示,这可能会导致英伟达失去客户的信任,并存在被诉讼的可能。

 

尽管英伟达发言人很快做出了回复,并表示:“Hopper 的需求非常强劲,Blackwell 的产量将在下半年逐步提升。”

 

但种种迹象显示,被硅谷巨头们寄予厚望的Blackwell,可能真的要“跳票”了。

 

硅谷巨头的“白月光”

 

当采用Blackwell架构的B100/B200芯片在GTC大会亮相后,知名华尔街投行Keybanc Capital Markets发出了一份预测:

 

“Blackwell芯片将推动英伟达数据中心业务的收入,从2024财年(截至2024年1月)的475亿美元增长到2025年的2000多亿美元。”

 

众所周知,在在大模型的训练与部署中,英伟达的高性能算卡居功至伟,但BlackWell真的能凭一己之力带动业绩翻倍上涨吗?

 

答案是完全有可能,甚至未来五年内,硅谷巨头之间的军备竞赛,在硬件层面将完全基于Blackwell架构芯片展开。

 

首先需要明确的是,Blackwell并不是一种芯片,而是一个平台,可以把它看作是过去Hooper架构的延伸,但性能却实现了全方位的碾压。

 

在Blackwell架构的芯片上,英伟达承袭了H200上“拼装芯片”的思路,采用统一内存架构+双芯配置,将2枚GPU Die(裸晶)拼接到一个GPU上,实现192GB HBM3e内存及8TB/s显存带宽。

 

相较于前代产品Hooper架构GPU,Blackwell结构GPU单芯片训练性能(FP8)是Hooper架构的2.5倍,推理性能(FP4)是Hooper架构的5倍。

 

Blackwell架构的能耗表现也异常优秀,在GTC大会现场,黄仁勋曾提到过一个举证:

“训练一个1.8万亿参数的模型,需要8000个Hopper GPU和15MW的电力,而2000个Blackwell GPU就能完成这项工作,耗电量仅为4MW。

 

除了性能与功耗外,Blackwell架构真正的杀手锏是其使用了“第二代Transformer引擎”以及“第五代NVLink网络技术”。

 

前者通过对每个神经元使用4位而不是8位的精度,使得计算能力、带宽和模型参数规模翻倍。后者则是大幅提升了GPU集群的通信效率,最高支持多达576个GPU间的无缝高速通信,解决了万亿参数混合专家模型通信瓶颈的问题。

 

在科技巨头们重金押注AI、自建数据中心的今天,Blackwell架构芯片所展示出的特性,让他们实在没有理由拒绝。

 

不过,就是这样一个具有划时代意义的平台,很可能存在设计缺陷。

 

正如上文所提到的,英伟达的设计思路是将两枚Die封装在一个GPU上,来实现性能的大幅度提升,但这也带来了隐患。根据《The Information》援引知情人士的爆料,最近几周当台积电的工程师为量产做准备工作时,发现这个架构的连接处设计存在缺线,会导致芯片的良率和产能受到较为严重的影响。

 

因此,原定的量产计划被终止,英伟达需要重新对Blackwell进行版图设计,而在此之后,台积电也不得再进行一轮试生产工作。

 

谁会受伤?

 

同样受这一设计缺陷影响的,可能还有同样采用Blackwell架构的英伟达RTX50系列显卡。

 

根据最新曝料,原本预计在今年第四季发布的Blackwell RTX 50系列,将在明年1月7-10日举办的CES 2025大展上才会发布。与B100/B200这类用于AI的高性能GPU显卡不同,RTX系列是英伟达面向游戏玩家开发的显卡序列,如果不同如期发布,所带来的负面影响同样不容小觑。

 

当然,最受伤的还是硅谷的互联网巨头们。

在AI热潮下,科技巨头动辄豪掷数十亿美元购买高性能计算卡也屡见不鲜,而在Blackwell问世后,这些公司似乎为其准备了更多的”弹药“。

 

据最新季度财报显示,微软、Alphabet、亚马逊和Meta在2024年前六个月的资本支出大幅增加。不仅如此,为了在AI军备赛中保持领先地位,这些巨头还纷纷上调了支出指引,预示着对GPU的采购需求有增无减。

 

而这些热钱,大部分都流向了“卖铲人”英伟达。

 

作为英伟达最大客户之一,微软内部定下了到 2024 年底囤积 180 万块 AI 芯片的目标,计划在明年 1 月向 OpenAI 提供采用 Blackwell 芯片的服务器。金融服务公司 DA Davidson 的分析师估计,去年微软在英伟达芯片上花费了 45 亿美元(325.6 亿元人民币),并计划在 2024 年将拥有的 GPU 数量增加两倍。

 

同样摩拳擦掌的还有Meta,在Blackwell于GTC大会上亮相的第二天,扎克伯格就发布声明表示,Meta计划将使用Blackwell来训练Llama模型。另据扎克伯格在今年年初的披露,Meta计划在年底钱储备约60万枚高性能GPU,其中采用Hopper架构的H100芯片将占35万枚,而剩下的25万芯片,大概率会把位置留给Blackwell架构芯片。

 

值得一提的是,号称要自行研发AI芯片的马斯克,也对Blackwell展现出了极大的兴趣,他计划在2025年购买30万块 B200 GPU,金额高达90亿美元(652亿元人民币)。这批新GPU将升级X现有的 AI GPU 集群,该集群目前由10万块上一代H100 GPU组成。

 

随着下一代大模型所需算力的翻倍提升,各巨头间的算力军备竞赛又卷上了新高度,也让AI巨头对Blackwell B200的需求与日俱增,而这次英伟达出乎意料的延期,让这场看不到尽头的战争变得更加扑朔迷离。

 (Tips:我是虎嗅科技医疗组的王欣,关注AI及创投领域,行业人士交流可加微信:13206438539,请注明身份。)

相关推荐

英伟达摊上大事儿了
巨亏800亿,阿司匹林之父摊上大事儿了
英伟达新核弹,站在苹果的肩膀上
中国首富,摊上“大事”了!
为了成为“英伟达平替”,大模型厂商开卷了
英伟达第三财季净利润8.99亿美元,同比下滑27%
英伟达应该感谢马斯克
英伟达2021财年营收达166.75亿美元,但芯片短缺仍拖累供货
大震荡来袭?今夜,英伟达引爆市场
听说段永平踏空了英伟达?

网址: 英伟达摊上大事儿了 http://www.xishuta.com/newsview123415.html

所属分类:行业热点

推荐科技快讯