新浪财经

用DeepSeek创收的“小公司”,痛并快乐着

微博财经-财道工作室

关注

来源:@中国企业家杂志微博

DeepSeek官方提供了两个接入方法,一是模型跑起来后,通过一些编程方式去调用它的API接口;二是用户在手机上装一个APP或打开官网的聊天窗口,直接跟它对话,聊天窗口的背后就在调用API。

不过,由于目前DeepSeek的流量过高,又存在服务器、人手不足等情况,导致DeepSeek自己的API会出现超时等问题。郭晨晖表示,美图旗下产品有着大体量的用户基数,一些功能推广开来后流量可能会激增数十倍、上百倍,这种情况下,公有云的服务保障能力相对更强。

不仅如此,DeepSeek的模型比较大,尤其是“满血版”模型对硬件有一定要求;基于性价比层面的考虑,美图的业务场景存在很显著的(使用)高峰、低峰效应,云厂商可以抹平各家调用API高低峰期的差异。“如果我们自己进行部署,低峰期资源利用率可能比较低,会有比较大的资源浪费。”郭晨晖说。

因此,美图目前接入DeepSeek-R1模型的方式,主要是调用云厂商的API,在此基础上进行一定的私有化部署。

与美图类似,部署端侧芯片的此芯科技,也一直对新发布的各种大模型保持关注,尤其是比较适合在端侧进行本地化部署的模型。此芯科技生态战略总经理周杰表示,对于一些开源的大模型,尤其是SOTA模型(State of the Art,在某一领域或任务中表现最佳的模型),他们会第一时间投入资源进行相应的异构适配。因此在DeepSeek去年发布V2以及今年发布R1后,此芯科技都第一时间尝试适配这些模型。

在周杰看来,DeepSeek-V2模型的主要创新点有两个,一是通过MLA(多头潜在注意力)架构有效地降低了KV缓存(Transformer模型在自回归解码过程中使用的一种优化技术)的开销,因为大语言模型对于内存带宽和容量的要求很高,一旦能够降低KV缓存,可以给算力平台带来很大帮助;二是DeepSeek发布的MoE(混合专家)模型,对传统MoE架构进行了优化改造,这个架构可以让一个(参数)更大的模型在资源有限的情况下被使用。

当时,此芯科技很快适配了V2模型的light版本,即16B大小的模型。“虽然16B参数看起来也很大,但实际运行时,它只会激活2.4B参数。我们觉得这样的模型非常适合在端侧运行,此芯科技的P1芯片也可以给2.4B参数规模的模型提供比较好的支持。”周杰告诉《中国企业家》。

对于此芯科技如何“接入”DeepSeek,周杰解释道:“用户现在使用DeepSeek等应用,很多需要调用云端的算力,相当于DeepSeek自己的数据中心或云厂商,提供了一些API给终端侧应用调用,用户使用DeepSeek APP时,就可以调用云端的AI能力。但是部分端侧场景可能对数据隐私等方面有很高的要求,这种情况下就需要在本地进行运算,在端侧部署后,用户可以在断网的情况下运行DeepSeek等模型。”

从算力和系统层面满足了运行一个大语言模型的基本要求后,此芯科技就可以结合客户项目的实际需求,跟DeepSeek等模型厂商进行商业化合作,对模型进行微调优化,把具体项目落地。

V2推出后,清程极智内部也尝试接入该模型,但当时的市场需求较少,他们就没有推广使用。今年R1出来后,他们觉得这是一个非常好的机会,决定接入DeepSeek并大规模向客户推广。

清程极智是做系统软件的,对外基于系统软件提供推理服务,因此不是像部分应用公司那样直接接入DeepSeek的API,而是为客户提供一套专属的DeepSeek的API用于应用服务。“我们接入的方式是把DeepSeek的开源模型下载下来,在我们的算力系统上用系统软件把服务部署起来。”汤雄超说。

通俗来讲,R1模型是一个几百G大小的文件,但下载后无法直接使用。“它只是一个文件,不是一个可用的服务,我们要做的是把这个模型运行起来,让它去对外提供服务的接口。通过API的服务接口,用户就可以跟模型进行对话了。”汤雄超解释道。

基于前期技术积累,清程极智在把模型文件下载下来后,一天内就迭代出了第一个版本,随后针对R1模型结构进行了优化,正式“满血版”官宣上线只用了一周。

在汤雄超看来,技术环节的工作都比较顺利,接入DeepSeek后,更多的挑战来自于商务侧或市场侧。具体来说,DeepSeek的流量给公司带来了非常多来咨询的客户,但每个客户的需求都不太一样。“包括算力平台、芯片型号、服务器规格等都不一样,我们需要针对不同的算力等基础,做针对性的调优。”汤雄超说。

API成本降低推动大模型普及

在2024年5月发布V2模型后,因其极致性价比,DeepSeek获得“AI界拼多多”的称号,并带动国内大厂打起了大模型价格战。

价格战降低了API费用。以美图“AI商品图”为例,在郭晨晖看来,一方面,美图在AI图像处理上拥有强大技术优势,而DeepSeek模型的接入带来了用户体验和转化的正向反馈,且大语言模型API的调用成本占比很低,这与美图的业务场景形成了很好的优势互补,因此美图也会加大对大语言模型应用的关注。

2月9日,DeepSeek停止了V3模型为期45天的优惠价格体验期,API恢复原价,每百万输入tokens 0.5元(缓存命中)/2元(缓存未命中),每百万输出tokens 8元。R1的百万tokens输入价格(缓存命中)为1元,百万tokens输入价格(缓存未命中)为4元,输出价格为16元。

但OpenAI官网显示,GPT-4o的2.5美元/百万输入tokens,10美元/百万输出tokens;最新发布的GPT-4.5的百万输入/输出tokens更是高达75美元/150美元,仅较GPT-4o就上涨了15~30倍。

在郭晨晖看来,一方面DeepSeek模型调用费用在美图AI研投的整体成本占比不高;另一方面,DeepSeek恢复原价后依然处于比较便宜的价格区间,且美图接入DeepSeek后,在用户转化及反馈上是正向的,因此他们会加大在大语言模型方面的投入。

周杰也认为,DeepSeek的API价格比OpenAI低了很多倍,对于企业和用户而言,买token的费用大大降低。在端侧模型层面,现在一个3B的模型可能就能做到以前7B以上规模的模型效果,内存等成本也相对降低了。

“这是个软硬件协同的过程。同样的硬件条件下,现在相当于能实现以前更大参数规模的模型效果,或者要达到同样的模型效果,对硬件的要求变低了。”周杰说。

3月初,持续五天的“DeepSeek开源周”结束后,DeepSeek团队首次对外公布了模型的优化技术细节、成本利润率等关键信息。按DeepSeek测算,其成本利润率理论上能达到545%。

大模型成本的快速降低以及能力的提升,也带来了to B和to C领域用户的高速增长。汤雄超透露,现在有很多的中小企业会主动联系到他们,希望获得基于R1模型的产品。

AI应用将加速爆发

百度创始人、董事长兼CEO李彦宏在《紧抓AI智能体爆发元年机遇,推动新质生产力加快发展》一文中写道,大模型的推理成本,每12个月就降低90%以上,远超“摩尔定律”。随着大模型技术的迭代和成本的直线下降,人工智能应用将大爆发。

目前,AI市场处于高速增长阶段,汤雄超认为,DeepSeek的理论利润率高达545%,对于整个行业的意义和影响非常积极,给市场科普了算力系统软件的重要性。

“过去大家并不是非常重视软件的能力,DeepSeek让大家认识到,花钱买软件不是浪费钱,而是为了更好地省钱。”汤雄超表示,在受过教育的市场环境下,核心系统软件的优势能被更大地发挥出来;短期来看,DeepSeek的开源也能让各方降低产品交付的商业成本。

随着越来越多企业接入DeepSeek,在其开源生态上做“建设”反馈,DeepSeek的发展进程也在加速。

郭晨晖认为,这也是DeepSeek的开源生态最大的优势——接入的企业在各自应用场景上打造差异化能力产品的同时,应用场景也能推动DeepSeek等基座大模型的发展。“各家公司在开源生态的差异化部署不仅能加速AI的创新,大模型的低成本化也有助于大模型在垂直细分领域的可用性,给AI的应用带来更大的想象空间。”郭晨晖说。

在周杰看来,除了云端应用爆发外,在DeepSeek的推动下,端侧AI应用也会在2025年实现井喷式发展。

“未来的AI其实是一个混合式的人工智能,不是所有的东西都在云端跑,也不是所有东西都在端侧跑,因为各有各的优势。如端侧只能跑相对小规模参数的模型,但对于某些任务来说,对精度有更高要求,还是要用云端算力;而为了保证数据安全和隐私,就需要使用端侧能力实现以前更大参数规模的模型效果,这就形成一个混合式的部署方案。”周杰说,此芯科技也在跟云厂商进行这方面的应用探索。

“AI应用元年”已经不是一个新概念,但截至目前,AI行业从业者以及投资人,还在寻找更适合AI应用的落地场景。在周杰看来,这只是时间问题,“一个新生态的发展肯定需要一定时间,所有的东西不会突然完善,需要软件和硬件不断迭代。目前来看,芯片侧、模型侧等已经为AI的大规模应用打下了坚实的基础,后面需要更多的开发者来开发AI应用,满足实际的场景需求。”

加载中...