纵观资讯 纵观资讯

当前位置: 首页 » 实时追踪 »

硅谷观察|盛赞完DeepSeek,黄仁勋就发新模型要抢客户

  从揭晓新AI处理器致敬女天文学家,到发布首款开源机器人模型,再到盛赞DeepSeek并强调不会冲击自家芯片需求,最后又发布一款新推理模型号称可以秒杀DeepSeek;这构成了今天黄仁勋在GTC大会主题演讲的几个精彩时刻。

  还是那身黑色皮衣,黄仁勋走上GTC舞台,宣布自己依然不会使用提词器,甚至笔记都没有准备。激情即兴是他的演讲标志风格,拿着幻灯片遥控器就可以一路说下去。

  今天在加利福尼亚州圣何塞举办的GTC 2025大会上,英伟达CEO黄仁勋向全球展示了他们在人工智能(AI)领域的最新技术突破。从宣布下一代GPU架构到将AI带入商用,宣布快餐巨头Taco Bell的合作,英伟达不仅巩固了其在AI计算领域的领导地位,还将其技术触角延伸至零售服务业。

  这是英伟达在疫情之后第二次在圣何塞举办GTC大会。本次大会吸引了约2.5万名与会者,包括微软、谷歌、Waymo和福特等行业巨头,共同探讨AI硬件的未来应用。

  早上八点SAP体育场外就排起了队,只为了尽早入场现场聆听黄仁勋的主题演讲,因为体育馆场内座位有限,排在后面的只能在外面看大屏幕。黄仁勋开玩笑称,自己需要更大的会场。

  为什么GTC大会如此吸引关注?作为AI时代的引擎提供商,英伟达在短短两年就成为了半导体巨无霸,甚至一度市值超过苹果,成为了全球市值最高企业。不夸张地说,整个科技行业都在密切关注英伟达的每一次发布会,关注着新一代处理器,因为这直接关系到未来几年的AI算力。

  那么今天的GTC 2025,黄仁勋宣布了哪些重磅产品与消息?

  新处理器致敬女天文学家

  如外界预期,黄仁勋在主题演讲中发布了全新AI处理器“Vera Rubin”,以美国女天文学家维拉·鲁宾(1928-2016)命名。这款芯片整合了英伟达首款定制CPU “Vera”和全新设计的GPU,标志着英伟达在处理器设计上的重大突破。这款处理器预计于2026年下半年出货。

  Vera CPU基于英伟达自研的Olympus核心架构,此前英伟达多依赖Arm的现成设计(如Cortex系列)。定制化设计让Vera在性能上比Grace Blackwell芯片中的CPU快约两倍,具体表现为更高的每时钟周期指令数(IPC)和更低的功耗。

  英伟达表示,这款全新处理器将采用台积电的3nm工艺制造,晶体管密度较5nm工艺提升约2.5倍,达到每平方毫米约1.5亿个晶体管。这种工艺进步显著提升了计算效率,尤其适合AI推理任务的高并行需求。

  Rubin GPU技术上由两个独立芯片组成,通过英伟达的NV-HBI(High Bandwidth Interface)技术以超高带宽互联,工作时表现为单一逻辑单元。其核心规格包括支持高达288GB的HBM3e内存(高带宽内存第三代增强版),带宽达每秒5TB,比Blackwell的HBM3内存(141GB,带宽4TB/s)提升显著。

  在推理任务中,Rubin可实现50 petaflops的性能(每秒5´10¹⁶次浮点运算),是当前Blackwell芯片(20 petaflops)的两倍多。这一提升得益于其新增的Tensor Core单元,专为矩阵运算优化,加速深度学习模型的推理和训练。

  Rubin的目标客户包括亚马逊和微软等云服务商和AI研究机构。其高内存容量和计算能力特别适合运行大型语言模型(如Llama 3或Grok),这些模型通常需要数百GB内存来存储权重和中间结果。英伟达还展示了Rubin支持的新软件工具包Dynamo,可动态优化多GPU协同工作,进一步提升性能。

  除了Rubin之后,黄仁勋还宣布英伟达计划在2027年下半年推出”Rubin Ultra”,将四个GPU芯片集成于单一封装,性能高达100 petaflops。

  Rubin Ultra采用名为NVLink 5.0的下一代互联技术,芯片间带宽预计达每秒10TB,比NVLink 4.0(600GB/s)提升一个数量级。这种设计允许将多个Rubin Ultra组合成超级计算集群,如Vera Rubin NVL144机架(含144个GPU),为超大规模AI训练提供支持。

  Rubin Ultra的每个GPU核心预计包含超过200亿个晶体管,采用2nm工艺制造,功耗控制在约800W以内(相比Blackwell单芯片700W)。其内存支持升级至HBM4,提供高达576GB容量,带宽预计达每秒8TB/s。这种配置使其能处理复杂的生成式AI任务,如实时视频生成或多模态模型推理。

  虽然Rubin两款处理器堪称怪兽级别,但市场需要等到明后年才能部署。英伟达计划今年下半年推出当前Blackwell系列的增强版产品——Blackwell Ultra。

  Blackwell Ultra提供多种配置,包括:

  - 单芯片版本(B300):20 petaflops性能,288GB HBM3e内存;

  - 双芯片版本(GB300):搭配Arm CPU,功耗约1kW;

  - 机架版本:含72个Blackwell芯片,适用于数据中心。

  Blackwell Ultra的亮点是内存升级(从192GB增至288GB)和更高的token生成速率。英伟达称,其每秒可生成更多AI输出(如文本或图像),适合时间敏感的应用。云服务商可利用其提供高级AI服务,潜在收入可能是2023年Hopper芯片的50倍。

  此外,黄仁勋还透露,英伟达计划在2028年将推出以物理学家理查德·费曼(Richard Feynman)命名的Feynman GPU。Feynman将延续Vera CPU设计,但架构细节未公开。预计其将采用1.5nm工艺,性能可能突破200 petaflops,目标是支持下一代AI代理模型,如具备推理能力的自主系统。

  黄仁勋强调,英伟达已从两年一次的架构更新转向每年更新发布的节奏,以应对AI需求的“超加速”增长。自2022年底ChatGPT发布以来,英伟达销售额激增六倍,其GPU占据AI训练市场超过八成的市场份额。

  上月底发布的第四季度财报显示,英伟达当季收入达到393亿美元,环比增长12%,同比增长78%。全年收入为1305亿美元,同比增长114%。其中数据中心收入为356亿美元,占总收入的91%,较上一季度增长16%,同比增长93%。这一增长不仅来自Hopper GPU的持续销售,还包括Blackwell芯片的初步贡献。

  首款开源人形机器人模型

  黄仁勋还在主题演讲中,正式发布了NVIDIA Isaac GR00T N1,宣布“机器人的时代已经到来”,这是全球首款开源的人形机器人基础模型。这是英伟达“Project GR00T”项目的最新成果,基于其在2024年GTC大会上首次推出的机器人研究项目。

  N1代表“第一代”,是英伟达专为加速人形机器人开发设计的通用AI模型。与传统机器人依赖特定任务编程不同,GROOT N1是一个“通才模型”(generalist model),能够处理多种任务并适应不同的人形机器人形态。

  该模型使用真实数据和合成数据(synthetic data)混合训练,其中合成数据由英伟达的Omniverse平台生成。这种方法大幅降低了现实世界数据采集的成本和时间。GROOT N1以开源形式发布,开发者可通过Hugging Face和GitHub下载其训练数据和任务评估场景。这种开放性旨在推动全球机器人社区的协作创新。

  黄仁勋在主题演讲中现场演示展示了GROOT N1的商用实力:

  1X NEO Gamma:1X公司的NEO Gamma人形机器人使用GROOT N1的后期训练策略(post-trained policy),展示了自主整理家居的能力。1X CEO Bernt B

  ørnich称:“GROOT N1在机器人推理和技能上的突破,让我们仅用少量数据就实现了全面部署。”

  迪士尼BDX机器人:两台受《星球大战》启发的BDX机器人(昵称“Green”和“Orange”)在台上跟随黄仁勋移动,并对他的指令(如“现在不是吃饭时间”)做出点头回应,展现了自然语言理解和动作协调能力。

  黄仁勋在演讲中指出,GROOT N1的发布不仅是技术突破,也是对未来机器人产业的战略布局。他预测,人形机器人市场在未来十年可能达到380亿美元,尤其在工业、制造和服务领域。他表示:“GROOT N1和新的数据生成框架将开启AI时代的新前沿。”

  AI点餐带入连锁餐厅

  在此次大会上,黄仁勋还宣布了英伟达与全球餐饮巨头百胜餐饮(Yum! Brands)的战略合作,百胜旗下的墨西哥风味餐厅Taco Bell将率先引入AI优化得来速服务(Drive Thru,不下车语音点餐)。

  目前,数百家Taco Bell餐厅已使用英伟达提供的语音AI系统接受订单。百胜餐饮计划从2025年第二季度起,将该技术推广至约500家餐厅,包括必胜客、肯德基和Habit Burger and Grill。

  英伟达为Taco Bell定制了基于Transformer架构的语音识别模型,运行于边缘设备(如Nvidia Jetson平台)。该系统支持实时语音转文本(ASR)和自然语言处理(NLP),延迟低至200毫秒。

  百胜餐饮高管介绍了英伟达技术如何给自己服务带来提升:AI将升级为视觉+语音系统,利用摄像头和英伟达GPU分析排队车辆数量。例如,当检测到五辆车排队时,AI可建议快速出餐的选项(如Taco而非复杂的Burrito),缩短平均等待时间(目标从180秒降至120秒)。英伟达的推理加速技术(如TensorRT)将支持这些实时决策。

  英伟达并不是最先尝试将AI带入快餐行业的巨头。早在2021年,IBM就和麦当劳合作,在100多家餐厅测试AI语音点餐,但使用体验还存在诸多问题,经常会有听错点餐的情况,准确率只有80%左右,双方已经在2024年结束了测试合作。

  与百胜餐饮合作是英伟达将AI带入快餐行业服务的第一步,他们显然也吸取了IBM的测试经验。英伟达零售业务发展总监安德鲁·孙指出,AI需兼顾速度与质量,避免给用户带来偏差,成为社交网络笑柄。百胜餐饮高管强调,员工和顾客的信任至关重要:“通用大模型不够好,我们需要定制化解决方案。”例如,Taco Bell的AI需理解品牌文化,而非机械执行标准流程。

  对DeepSeek赞不绝口

  值得一提的是,黄仁勋在主题演讲中,对来自中国的AI公司DeepSeek赞不绝口,给予了极高的评价,多次强调DeepSeek不会给英伟达带来冲击。黄仁勋在演讲中称赞DeepSeek的R1模型为“卓越的创新”(excellent innovation)和“世界级的开源推理模型”(world-class open-source reasoning model)。

  今年1月DeepSeek发布R1模型之后,以极低的训练成本提供了媲美甚至优于OpenAI的性能,震撼了整个美国AI行业,甚至一度导致芯片行业股价大跌。因为如果DeepSeek得以普及,AI行业就不一定需要疯狂军备竞赛囤积英伟达的AI处理器了。

  黄仁勋特别反驳了市场早前的恐慌,即DeepSeek的高效模型会降低对英伟达芯片的需求。黄仁勋提到,DeepSeek R1发布后(2025年1月),市场曾误认为AI硬件需求会减少,导致英伟达市值一度暴跌6000亿美元。他对此解释称,“市场认为’AI完成了’,我们不再需要更多计算资源。这种想法完全错误,恰恰相反。”

  他强调,DeepSeek R1代表的“推理型AI”(reasoning AI)同样需要对很高的计算能力。他解释说,与传统观念认为AI仅需预训练后即可直接推理不同,推理型模型需要大量后期训练和实时算力支持。他表示:“推理是一个相当耗费计算资源的过程。像DeepSeek这样的模型可能需要比传统模型多100倍的计算能力,未来的推理模型需求还会更高。”

  他指出,DeepSeek的成功表明高效模型与强大算力的结合是未来趋势,而英伟达的芯片(如Blackwell Ultra)正是为此定制的。他还幽默地称:“DeepSeek点燃了全球热情,这对我们是好消息。”英伟达已与包括Meta、谷歌和亚马逊在内的客户加大投资,确保其芯片满足日益增长的AI基础设施需求。

  他指出,R1的发布不仅没有削弱英伟达的市场地位,反而推动了全球对AI的热情。“几乎每个AI开发者都在使用R1,这表明其影响力正在扩大AI的采用范围。”

  黄仁勋因此透露,英伟达已经将DeepSeek R1作为新品基准测试的一部分。例如,他提到Blackwell Ultra芯片在设计时优化了推理任务,能更高效地运行R1这类模型。他具体指出:“Blackwell Ultra的Tensor Core经过调整,支持高密度矩阵运算,每秒token生成率显著提升,非常适合推理型AI。”

  面对DeepSeek引发的竞争压力,黄仁勋淡化了对英伟达的威胁。他在演讲中说:“DeepSeek展示了模型可以更高效,但这并不意味着硬件需求减少。相反,它让所有人意识到,高效模型需要更强的计算支持。”  

  新推理模型秒杀DeepSeek

  盛赞完DeepSeek,黄仁勋又宣布推出了一款基于Llama的新推理模型——Nvidia Llama Nemotron Reasoning。他将这一模型描述为“一个任何人都能运行的令人难以置信的新模型”,并强调其在企业AI应用中的潜力。这一发布标志着英伟达在AI模型开发领域的进一步扩展,从硬件供应商向软件与模型生态的全面参与者转型。

  黄仁勋特别强调了Nvidia Llama Nemotron Reasoning在准确性和速度上的卓越表现,声称其“大幅超越”(beats substantially)中国AI公司DeepSeek的R1模型。

  Nvidia Llama Nemotron Reasoning是英伟达Nemotron模型家族的新成员。Nemotron系列最初设计用于增强AI代理的能力,尽管“AI代理”这一概念在行业中仍未完全明确定义。通常,AI代理被理解为能够自主执行任务、推理并与环境交互的智能系统,例如客服机器人或自动化助手。黄仁勋在演讲中并未详细解释“AI代理”的具体含义,但暗示Nemotron Reasoning将为企业提供更强大的推理能力,支持复杂决策和任务处理。

  该模型基于Meta开源的Llama架构,但经过英伟达的深度定制和优化。Llama作为一个高效、开源的大语言模型基础,近年来被广泛用于学术和商业领域,而英伟达通过其算力优势和软件生态(如TensorRT和Dynamo)对Llama进行了性能提升,使其适配企业级应用。

  Llama Nemotron家族模型将与DeepSeek竞争,为高级代理提供企业就绪的AI推理模型。顾名思义,Llama Nemotron基于Meta的开源Llama模型。英伟达通过算法修剪了模型,以优化计算需求,同时保持准确性。

  英伟达还应用了复杂的后期训练技术,使用合成数据进行训练。训练过程涉及36万个H100推理小时和4.5万个小时的人工标注,以增强推理能力。据英伟达称,所有这些训练造就了在数学、工具调用、指令遵循和对话任务等关键基准测试中具有卓越推理能力的模型。

未经允许不得转载: 纵观资讯 » 硅谷观察|盛赞完DeepSeek,黄仁勋就发新模型要抢客户