Token per dollar!微软CEO纳德拉曾将算力比作美元。
“对于任何国家或任何公司而言,如今有了一个新的考量公式。
无论是两年后、五年后还是十年后,我们都会讨论国内生产总值(GDP)增长与这个公式之间的关联。”
翻译成人话就是:谁有算力,谁就能在AI时代印钞。
在AI行业的算力饥渴下,那些搞算力租赁的公司可就享福了,不仅转的盆满钵满,还成了这波AI浪潮里最先上市的公司。
不久前,算力租赁公司CoreWeave在纳斯达克提交上市申请,正式开启IPO进程。
在AI的催化下,过去三年里,CoreWeave的收入从2022年的1600万美元增长至2023年的2.29亿美元,再到2024年的19亿美元,年合增长率达737%。
据路透社报道,这次CoreWeave上市的估值预计在350亿美元(约合人民币2540亿元)。
真应了那句老话,淘金先富卖铲人!
/ 01 /
AI专用数据中心,收入年年涨7倍
CoreWeave的业务很简单,主要面向需要大量智能算力的客户,提供高性能计算资源的租赁服务,其97%收入来自AI模型训练与推理托管,几乎不涉及其他业务。
之所以收入能增长这么快,微软居功至伟。过去两年,微软占CoreWeave的收入比重从35%提升到62%。
此前,微软与CoreWeave签订了100亿美元算力租赁协议(涉及H100集群,执行期预计5年),已锁定合同总额超过150亿美元。
微软买单的原因也很简单,现阶段AI智能算力需求量涨得太快,猝不及防。
就像你想盖一栋摩天大楼,但今晚就得招待1000个客人,只能临时租下"算力快捷酒店"。
而CoreWeave就是最好的"算力快捷酒店"之一。
“比传统云提供商快35倍,成本低80%,延迟低50%”是CoreWeave打出的旗号。
一般来说,由于架构问题,计算、网络或内存不平衡等原因,运行AI工作负载的典型GPU的计算效率,约为峰值理论性能的35%到45%。
而CoreWeave专门围绕AI负载设计的软硬件配套设施,可以有效缩小落差。
在硬件方面,CoreWeave32个数据中心是专门为AI计算"定制"的"超级工厂"。
这些“超级工厂”,能够提供超过25万张英伟达H100GPU进行AI服务,并且采用先进的液冷技术以及InfiniBand等低延迟网络,显著提升AI训练和推理速度。
在软件方面,CoreWeave的软件系统,堪称算力界“周扒皮”,能“榨干”GPU的每一滴“算力”。
比如,CoreWeave的SUNK调度系统,能智能调配AI在训练、推理、测试等不同任务上的算力分配,提高GPU利用率。Tensorizer能快速将模型从存储“搬”到GPU内存,缩短加载时间。
凭借“内外兼修的功夫”,CoreWeave与运行相同英伟达GPU的微软、谷歌、亚马逊等更通用的云相比,它可以将AI训练作业的计算效率提高20%以上。将实际性能提高到峰值理论性能55%到65%之间。
以CoreWeave的25万个H100GPU为例:
在同规模下,按传统云服务商理论峰值利用率40%计算,CoreWeave20个月的计算量,传统云服务商想达到需耗时30个月。
这意味着,同规模同价格同时长,CoreWeave创造的收益比传统云服务商高50%。
CoreWeave这种"偏科式打法"不仅在性能上超越传统云巨头,价格上也把他们“按在地上摩擦”。
传统云厂商是“全能型选手”,既要搞存储、网络、数据库,又要伺候全球各地客户的五花八门需求,需要四处建厂,相当于开“百货商场”—货架多、成本高、定价只能“摊大饼”。
反应到价格上,主流云厂商H100的租赁价格通常在7-18美元/小时,包括微软11.06—12.29美元/小时。
而CoreWeave直接梭哈GPU即服务(GPUaaS),专攻AI训练和推理,运营成本被压缩,叠加北美廉价的电力,其32个数据中位于北美28个、欧洲仅4个。
反映到租赁价格上,CoreWeaveH100最新价格租赁价格为6.15美元/小时,远低于主流厂商。
虽然从表面上看,微软是CoreWeave的金主,但实际上,英伟达才是就是往盆里倒金坷垃的土财主。所谓"内外兼修的功夫",离不开老黄的财力支持,与英伟达GPU的浇灌。
/ 02 /
算力狂欢下的隐忧
在2023年Siggraph计算机图形大会上,CoreWeave的每个展台都特意用小字标明“由英伟达提供动力”。
CoreWeave的成功之处在于,紧紧抱住了英伟达的“大腿”。而英伟达这边也对CoreWeave给予了充分的信任。
“你会看到一大批新的GPU专业化云服务提供商。”黄仁勋在今年英伟达今公司业绩电话会议上说道。“其中一个著名的就是CoreWeave,他们做得非常出色”。
英伟达另外两位高管:“CoreWeave是性能最高、能源效率最高的计算平台”,“英伟达为CoreWeave感到自豪”。
落到实处,英伟达也为CoreWeave的发展出了不小的力气。CoreWeave被称为“英伟达亲儿子”也不是空穴来风。
2020年9月,CoreWeave成为英伟达的首选云服务提供商之一。2021年7月,CoreWeave成为英伟达首家精英云计算服务提供商。
2022年11月,CoreWeave成为首批提供采用英伟达H100超级计算机云实例的供应商之一。
2023年6月,CoreWeave与英伟达共同刷新了MLPerf基准测试的记录,通过3584个H100集群,在CoreWeave云上仅用了11分钟就完成了基于GPT-3的大规模基准测试。
当马斯克还在为H100断货骂街时,CoreWeave不仅早就吃上了肉,还成了首批部署H200的云服务商。
CoreWeave不仅在英伟达GPU供应和技术支持方面获得了优先权,在融资上英伟达也是不惜余力。
2023年,英伟达参与CoreWeaveB轮融资,注资1亿美元。该轮融资后,CoreWeave估值达20亿美元。
同年10月,CoreWeave获得6.5亿美元信贷额度,由摩根大通、高盛等机构领投,英伟达作为持股方持续加码。
在英伟达GPU持续供应与融资加持之下,CoreWeave以一年翻7倍的速度前进。
与收入高速增长形成鲜明对比的是,2024年公司净亏损高达8.63亿美元,虽然毛利率高达74%,但很大一部分利润被运营费用"吃掉"了,也就是固定资产的折旧和摊销。2024年,光折旧和摊销的费用就高达9.6亿美元。
这是CoreWeave的战略选择。CoreWeave的重资产模式,决定了它必须先期大规模投入基础设施。建数据中心、买GPU,都是“烧钱”的买卖。而随着重资产的不断投入,折旧和摊销的费用也将逐渐递增。
为了扩大投入,除了股权融资外,CoreWeave还进行了大量的债务融资。
截至2024年底,公司的债务总额高达129亿美元。此次IPO募集的40亿美元,主要偿还129亿美元债务的短期部分,缓解3.61亿美元的利息支出。
当然,CoreWeave真正的挑战并不在此。比起看得见的债务压力,更大的压力来自AI格局的变化。
某种程度上说,CoreWeave的成功既有英伟达给予的资源优势,更多还要感谢时代的红利。
AI模型的快速进化,以及不断增长的算力需求,加剧了巨头们的焦虑,也给了CoreWeave更多的商业机会。但危机也恰恰来源于此。
当下,几乎所有的科技巨头都在加快算力的建设。
微软宣布2025财年有望投资约800亿美元建设人工智能数据中心。
亚马逊宣布未来10年将投入1000亿美元建设数据中心。2025年将在AWS和生成式AI领域投入750亿美元。
2024年,Meta宣布计划为人工智能项目投资超2000亿美元建设新数据中心。
巨大的算力投入,也引发了科技巨头算力过剩的担忧。
今年2月,根据Bloomberg透露,作为OpenAI的最大支持者,微软已经取消了部分AI数据中心的租赁。
可以说,虽然CoreWeave凭借英伟达的扶持,卡住了一个不错的位置。但过高的客户集中度以及数据中心的日益增加,始终是悬挂在其上空的达摩克利斯之剑。
或许也正因为如此,CoreWeave才选择率先登陆资本市场。
眼下这350亿美元估值,究竟是AI黄金时代的入场券,还是算力泡沫的狂欢门票,或许只有时间能给出答案。