出品 | 虎嗅科技组
作者 | 王欣
编辑 | 苗正卿
头图 |视觉中国
热钱仍在涌入大模型圈,只不过,这次的主角从云端模型变成了端侧模型。
今天,面壁智能宣布完成新一轮数亿元融资。面壁智能CEO李大海在公开信中表示,将进一步提速以端侧AI为代表的高效大模型商业化布局。
云端大模型市场卷生卷死,端侧逐渐成为大模型公司的新战场,已经有国内AI公司开始转向端侧,李大海感受到了水温的变化——“2024年下半年,行业突然形成新共识,更高知识密度的小模型和端侧智能,成为大模型发展的新阶段”
从2023年末,面壁智能就聚焦端侧大模型的研发,“不追热点,不浪费人才与算力”,这让它与同期专注通用大模型的公司相比,显得有些另类。
另类还体现在面壁的很多细枝末节,面壁智能告诉虎嗅,不同于其他公司,他们有一个独立的数据团队,专门处理高质量数据来源和数据配比。因为对于端侧模型来说,对高质量数据要求更高——他们的判断是“密度定律推论,大模型随着时间不断增长,模型的能力密度每3.3个月翻一倍”。
这种另类从它的名字来历也可见一斑,《三体》中面壁者通过独立思考来抵御三体人的入侵,承担的是人类历史上最艰难的使命,肩负着拯救人类的责任。
而面壁则将AGI作为自己的长期使命。
硬币的两面
“你们相不相信AGI?面壁智能是不是要做AGI?”
这是在加入面壁智能前,李大海向每个核心成员发问的问题。在得到肯定答复后,他才决定加入面壁智能。
对面壁智能来说,商业化与实现AGI同样重要。他们的策略是:一方面,他们依托面壁智能创始人、清华NLP实验室刘知远教授团队来进行前沿技术的探索;另一方面,他们通过商业化落地保持资源竞争力与长期生存。
李大海认为“不管是端侧模型还是云端模型,都需要尽快去把商业闭环先做起来,让大家看到预期通路是通的,这是最重要的事情。”
这体现在面壁的组织架构上——其中研发团队分为两部分:一部分负责迭代基础模型,比如优化MiniCPM的文本和多模态功能;另一部分形成了一个以技术专家为主导的交付团队。
面壁智能告诉虎嗅,不同于销售型为导向的To B交付团队,面壁的交付团队是工程师文化浓厚的专家型团队。这意味着,他们能够更高效率地做出针对性决策,内耗更少。
效率是面壁在组织和商业化落地上一直强调的关键词,这显然是吸取了大模型To B的一些教训:为企业提供定制化服务的大模型公司,很难去有效压缩成本。
一年前的面壁看到了什么
大模型的“To B”生意难以压缩成本,是因为为了满足不同企业的定制化需求时,大模型公司甚至需要派团队入驻企业,这种商业模式很难控制人员与工程成本。
相对而言,面壁的优势则在于标准化——他们的每个行业都有相对标准化的流程。端侧终端行业的标准化,使得他们可以针对性地快速适配,不需要从0到1去做研发。
面壁智能向虎嗅举了这样一个例子:首先他们会按照终端客户需求选择适合的模型与功能,其次根据终端的芯片与配置,去做模型的适配与优化。
这样的流程相对清晰。
另外,面壁与高通、联发科等芯片厂商合作,在基座和多模态方面都进行了适配。
这意味着,在搭载这些芯片的终端上,可以直接复用之前的模型参数配置,只需要针对终端厂商的要求去做应用层的功能开发,而不需要再次进行底层的开发,能够快速落地。
虽然行业内已经有公司开始转向端侧,但面壁对自己的壁垒依旧保持自信:
“端侧模型的参数量更小,因此对模型的能力密度要求更高。并不是说原来大模型做得很好,能力就可以直接迁移到小模型。还需要丰富化的实验手段积累,做一些有意思的洞察,然后慢慢做起来。”
因此,刘知远教授团队近期也在聚焦探索模型的能力密度的提升。他们提出了大模型的密度定律(densing law),引入了衡量大模型性价比的新指标——能力密度(capability density)。
面壁这样像虎嗅解释这项工作的重要性:“模型能力密度提升意味着——如果一个4B的模型能实现40B模型的效果,那么它能搭载运行的终端范围会大大拓宽,比如原来服务器上的模型,就可以直接在手机上运行,它的应用范围也就拓宽了。”
不止一家大模型公司,以及跟大模型有接触的机构,都提出了一个相似观点:目前行业的转向部分原因在于,云端模型同质化严重,用户看不到明显的差异化,价格战、刷榜等乱象横生。
“云端模型的故事已经没有太多可以讲的了,卷价格、卷服务,卷到最后谁都没钱赚。而终端落地更快、出货量稳定的手机、PC、智能座舱硬件仍存在很大的市场增量空间。”
在一年前,面壁预判到了这一问题趋势,也看到了沿Scaling Law卷大规模外的其他方向,因此从2023年底,他们开始聚焦端侧模型。
这也能够解释,面壁智能脱胎于清华大学NLP实验室,却狂奔在端侧模型的道路上。
大模型正在开始进入真刀真枪的比拼阶段,从大跃进转向持久战。通往AGI道路仍然漫长,面壁也开始加快步伐。