纵观资讯 纵观资讯

当前位置: 首页 » 实时追踪 »

不是,你们大模型全开源了,那到底咋挣钱啊?

在今天正式开唠之前,差评君想问一个小问题:在你看来,开源是一种怎么样的存在?

纯慈善?活菩萨?理想主义者?不图回报的侠客?

按理来说,拥有这些标签的角色,往往都是电视剧里少数,而且最后都是要领盒饭的。

但现在,在大模型界,却来了个一百八十度大调转。

“ 不图回报 ” 的开源模型们成了市场的主流和政治正确。在 DeepSeek 这个排头兵的带领下,敌对方再坚硬的头颅都低垂了。

不过,今天差评君想问一句实在的: 都抢着开源,你们到底知不知道该怎么挣钱啊?

即便是闭源大模型,赚得那点会员费也根本养活不了自己。就连宁愿背负骂名,都要转向闭源的 OpenAI,都总是在喊穷。

那技术都开源公示,谁都能免费取用的开源大模型们,不更应该揭不开锅吗?难道真是冲着做慈善去的?

不光是差评君,几乎外界对于开源模型能不能赚钱,一直有争议。

但是, 大伙别忘了,盈利才是企业经营的第一要义啊。所以,人家就不可能是冲着搞慈善去的。其实开源模式要真想赚,有好几条路子可以走。

因为开源界已经跑出了不少成功人士,比如在开源赚钱史里响当当的一个大名—— Red Hat。

一个靠开源的 Linux 系统,最后成功走上上市,被 IBM 重金收购的商业公司。它的主要工作,就是提供围绕 Linux 系统的开源解决方案。

而这位前辈的案例,已经给大模型们指明了一条方向了。

首先,可以选择对部分模型的使用权,进行收费。

对的,大家得明白一件事,就是开源并不一定代表完全开源。

虽然大家都打着开源的旗号,但有很多人其实只是开源了某一层的技术,比如 Kimi 这次只是把底层推理框架开源了。

哪怕开源了整个模型,很多企业也都是做了两手准备。

有的人只对一些早期或者小参数量的模型进行开源。比如智谱虽然是坚定的开源阵营,不过在 DeepSeek 下场之前,它一直只公开小参数模型,比如 ChatGLM-6B 。

或者是 做有一套免费开源的应用,同时再开发一套专门用来收费的模型。

这就是 Red Hat 的经典操作了,它们提供免费的基础版 Linux 发行版系统,但与此同时,也有面向 B 端的收费系统,比如企业付费版 RHEL 。

对于大模型来说也是一样,做 B 端定制化的付费模型部署,是现在盈利的一个大头

比如智谱就是类似的模式,在其官网披露了同款服务,虽然现在只写着千万和百万。不过,在 2023 年智谱的商业版本部署价格大概如下。

就算退一万步来说,我的模型免费给你用, API 免费给你接,我也有法子把钱赚回来。

最简单的就是卖算力,像 DeepSeek 这样通过 tokens 来收费。

前段时间 DeepSeek 干脆公开了一份自己的盈利情况说明,似乎是想回击外界对于它赚钱能力的质疑。

里面有一个非常吸人眼球的数据,理论上 DeepSeek 一天的利润为 47 万美元,利润率 545% 。

在文章中,它说如果取用它们调配后的计算机承载峰值来计算,那么 GPU 租赁成本为 87072 美金 / 每天。

把网页、 APP 和 API 的负载全部算上,那么依照 DeepSeek R1 的定价来算, 理论上一天的总收入可以达到 562927 美元 / 天。

这笔账一算,不仅国内炸了,国外媒体也纷纷跟进报道。

不过,差评君得踩一脚刹车了。其实 DeepSeek 的这个收入只是最理想状态的结果。大多数情况下,并没有办法做到这样满额功率地跑。

尤其是 DeepSeek 以外的企业,更是无法做到和 DeepSeek 一样调教模型,做到多线满功率输出。

所以,这部分的收入虽然稳定,但对很多企业来说,大多时候只是上不来台面的三瓜俩枣。在阿里巴巴最新的财报里,他们也承认了千问大模型 API 的收入,根本没有形成规模。

前者为 DeepSeek -V3 ,后者为 DeepSeek-R1

但不用担心,因为往往占开源盈利大头的,并不是源产品本身的收入。 很多时候,开源卖的就不是产品,而是服务,生态才是它们的护城河。

低成本的系统,很多时候也只是大企业们的敲门砖。根本目的是通过低价把产品铺开, 让你用习惯了、离不开了,再坐下来跟你聊商业化的事。

有一句话说的很精准, 开源是商业化的桥梁

而一旦这座桥建成了,那什么生意都好做了,从硬件设备,到配套服务、应用迭代,都是能赚钱的地方。这些也都是 Red Hat 的经典操作。

几种里面最简单的就是服务收费。举个简单的例子,每天几千亿美金上下的纽交所,实际一直在用 Red Hat 免费的 Linux 系统来交易股票。

但是,英特尔更新下一代的处理器之后,纽交所得做相应的适配,这就意味着他们想要用上这一代的处理器,摆在他们面前的只有两个选择。

一是花钱长期雇佣一批专业的 IT 团队来维护系统、开发工作,第二个选择是购买 Red Hat 的订阅服务,请他们的专业工程师来负责。

前者得掏钱一直养人,而且不一定有官方工程师懂这个产品,所以大多数人都会选择订阅 Red Hat 的服务。

对于大模型来说也是一样,智谱不仅可以给企业提供定制化的 AI 大模型。同时,也可以通过付费服务,承包后续的系统维护和升级。

因为部署之后,每一代的模型更新、多服务器的部署、企业数据权限打通等等都是需要解决的棘手任务。

但,这可就是另外的价钱了。 在智谱这张服务图里,你能看到两个套餐里,都包含了教程培训、咨询服务。

接下来,就不用差评君教了吧,在硬件设备这边咱们直接举一反三就行。已经有企业在悄默默赚钱了,就比如各位卖铲子的云厂商们。

前两天,开源的千问大模型家族成了新晋的阿里救星。

虽然单纯卖付费 API 只能赚个三瓜俩枣的, 但阿里发现,用了千问的模型后,很多客户顺手就会选择接入同宗同源的阿里云。

卖完模型再卖云,顺手的事。所以阿里云智能集团交了一份非常漂亮的成绩,收入同比增长了 7% ,涨到了 296 亿。

听差评君唠了这么多,可能你觉得那开源岂不是稳赚了,口碑又好,还有这么多变着法赚钱的路子。

可惜的是,这几种是可能的赚钱方法,但并不代表现在的开源大模型们,已经可以这么赚了。

就连现在正参与在 AI 行业一线的人,都和差评君说: 行业还在激烈变化中,现在谈赚钱甚至有些为时尚早。

这么多年了,开源界也只出了 Red Hat 这么一个独苗。它的这套成功商业模式,复刻起来非常有难度。

有一个必要的点就是, 需要能让企业们都选择你这个产品。并且,你的开源社区能持续地扩大影响力,把生态建立起来。甚至是,“ 垄断 ” 同类型的开源市场。

这就要求企业不断地烧钱,同时和开源、闭源企业竞争。

更何况,和系统开发比起来,大模型对于财力的消耗更是高得吓人。开发出最初版本的 Linux ,只需要一台电脑和一碗面条。而 现在模型训练要烧钱、云服务器要烧钱,资金链上但凡有一点风吹草动,很可能就一脚踏空摔死了。

对于现在的 AI 来说,管你是闭源开源,都没到能上桌谈钱的时候。

之前红杉资本披露过一个数据, 2023 年各家 AI 公司在英伟达 GPU 上花了 500 亿美元,但由此产生的收入只有 30 亿美元。这里面可能还有三分之二都是 OepnAI 一家创造的。

在层出不穷的巨星光芒之下,死伤的开源 AI 公司不在少数,里面甚至不乏明星企业。就比如文成图领域绝对响当当的 stability ,那个做出 stable diffusion 的公司。

去年上半年,因为收入只有不到 500 万美元,但是亏损超过了 3000 万,还倒欠其他公司 1 个亿美元的债务,最终导致 CEO 被赶下了台。

对现在的 AI 大模型企业来说,当务之急不是赚钱,是有关注、有用户和活下去。 所以开源才会一反常态,成为这个市场里非常响亮的一种声音。

如今,很多人抢着开源,一方面为了制造动静,让市场知道你这家公司在干嘛,知道你的产品牛。除此之外,也是担心所有人都投奔 DeepSeek 去了,一旦掉队,慢慢市场里就没自己的事。

到时候,你再开源可就没人和你玩了。

撰文:star

编辑:江江 & 面线

未经允许不得转载: 纵观资讯 » 不是,你们大模型全开源了,那到底咋挣钱啊?