3月1日,DeepSeek在开源周最后一天抛出的”暴利”数据引发热议——V3/R1推理系统理论日利润高达346万元人民币(47.5万美元)。在这组看似惊人的数字背后,是一场关于AI模型服务商业化的现实拷问。有行业人士认为,即便按更严谨的口径计算,DeepSeek还是赚钱的,但卖DeepSeek
API的厂商能否挣钱,目前业内有一些争议。
DeepSeek统计了2月27日24点到2月28日24点,最近的24小时里DeepSeek V3 和
R1推理服务占用节点总和,峰值占用为278个节点,平均占用226.75个节点(每个节点为 8个H800
GPU)。假定GPU租赁成本为2美元/小时,DeepSeek计算出其每日总成本为8.7万美元(折合人民币约63万元)。
如果所有token都以DeepSeek-R1的价格计费,每日总收入将为56.2万美元(折合人民币约409万元),成本利润率达到545%。
但DeepSeek提到,实际上并没有这么多收入,因为V3的定价更低,同时收费服务只占了一部分,面向用户的网页端和应用程序免费,另外夜间还会有折扣,导致实际收入远不及理论数值。
若根据官方公布的这一理论数据测算,用每日56.2万美元的收入,减去每日8.7万美元的GPU成本,DeepSeek理论上最高每天可盈利47.
5万美元(折合人民币约346万元)。
关于盈利话题,DeepSeek创始人梁文锋曾公开表示,“我们的原则是不贴钱,也不赚取暴利。这个价格也是在成本之上稍微有点利润。”彼时DeepSeek降低了API价格,引发了行业一轮价格战。
DeepSeek能做到这一利润率,部分原因是团队将优化做到极致,实现了对GPU的最大限度使用。此次官方在《DeepSeek-V3/R1推理系统概览》这一文章开头提到,团队的优化目标是:更大的吞吐,更低的延迟。为此DeepSeek的方案是使用大规模跨节点专家并行(Expert
Parallelism /EP),每个GPU只需要计算很少的专家(因此更少的访存需求),从而降低延迟。
最近一周,DeepSeek除了在X上发布了成本等消息,也同步在国内知乎平台上发布了推理系统概览全文。在这篇文章的评论区,硅基流动创始人袁进辉留言称,“DeepSeek
官方披露大规模部署成本和收益,又一次颠覆了很多人认知。”
袁进辉提到,现在很多供应商做不到这个水平,主要是V3/R1架构和其它主流模型差别太大了,由大量小Expert
(专家)组成,导致瞄准其它主流模型结构开发的系统都不再有效,必须按照DeepSeek报告描述的方法才能达到最好的效率,而开发这样的系统难度很高,需要时间,而这周“DeepSeek五连发”已经将主要模块开源出来了,降低了社区复现的难度。
DeepSeek公开声明了自己的“账本”显示盈利,但和一些中间商的感受并不完全一致。潞晨科技此前业务涉及卖DeepSeek
API,创始人尤洋发文提到,DeepSeek这篇文章中的数据对计算MaaS(Model as a
Service,模型即服务)成本没有任何参考价值。MaaS(Model as a
Service)是模型即服务,这种模式将模型部署到企业端,以API、SaaS或开源软件的形式提供给用户使用,从而使用户能够简单调用模型来获取服务,不是ChatGPT类的APP,但官方把DeepSeek网页,APP和MaaS
API的token数加在了一起计算。这意味着对成本的摊薄。
尤洋提到,“DeepSeek的MaaS要想有一个这么高满负荷的状态,必须要时时刻刻让自己的APP始终超负荷运转。MaaS是ToB的,是服务APP,最大的问题是机器利用率的不确定性以及自己没有模型壁垒而承受的低毛利负毛利价格战。”但这不影响尤洋认为DeepSeek是很好的模型,只是在计算利润方面存在不同见解。
在最新的回应中尤洋认为,OpenAI收高额月费才是唯一可持续的商业模式。目前,DeepSeek采用开源免费+分层B端收费模式,通过开放核心技术吸引开发者共建生态,核心盈利来源于企业定制化服务以及母公司的资金支持,而OpenAI基本坚持闭源+订阅制分层收费,通过ChatGPT
Plus等订阅服务(200美元/月)和API调用收费实现盈利,开源了一些早期模型比如GPT2。
2月28日,OpenAI发布了公司此前宣传已久的GPT-4.5大模型预览版本,仅限每月支付 200
美元的Pro订阅者使用。在面向开发者的API价格上,GPT-4.5定价为每百万Tokens
75美元,这比GPT-4o的2.5美元上涨30倍。相比DeepSeek的正常价格,GPT-4.5输入价格达到280倍,如果以DeepSeek前几天发布的API淡季折扣价计算,GPT-4.5输入价格(缓存命中)是其1000多倍。