21世紀經濟報道記者孫燕 上海報道
“2025年將是大模型商業化的大考年。”今年年初,零一萬物創始人兼CEO李開復預言。
2025年尚未過半,“大模型六小虎”中已有十余位高管“出走”。其中,多位離職高管是商業化負責人,包括智譜首席運營官張帆、MiniMax商業化合伙人兼副總裁魏偉,以及百川智能聯合創始人、商業化負責人洪濤。
人事變動背后,AI大模型企業的商業化焦慮浮出水面。
主動披露商業化收入的大模型公司少之又少。在“大模型六小虎”中,智譜AI曾透露,該公司2024年商業化收入同比增長超過100%,平臺日均Tokens消耗量增長150倍。據市場預測,Minimax2024年的年化收入(ARR)有望達7000萬美金。
但全球300余個大模型中,僅有少數企業實現了商業化的初步探索。面對虧損泥潭,牌桌上所有玩家都在追問:
產業化大方向究竟在哪里?
C端還是B端?
從客戶定位來看,“大模型六小虎”走出了C端、B端兩條路徑。
MiniMax、月之暗面、階躍星辰的重心均在C端:MiniMax推出了視頻生成產品“海螺AI”、AI陪伴應用“Talkie”;月之暗面推出了Kimi助手;階躍星辰推出了AI助手“躍問”、開放世界“冒泡鴨”。
智譜AI在C端推出了“智譜清言”,但更偏向B端業務。該公司CEO張鵬曾坦言,推C端產品的主要目的,是為了向B端客戶展示能力。
零一萬物、百川智能也以B端為重心:零一萬物聚焦零售和電商等場景,推出了“AI2.0數字人”解決方案,百川智能以醫療為核心場景。
商業化壓力之下,大模型企業也在邊探索邊調整:如零一萬物早期宣稱“堅決做ToC,不做賠錢的ToB”,但2024年起戰略轉向全面聚焦B端,收縮C端業務。
國泰海通證券研究指出,雖然當前仍處于商業化初期,但參照互聯網發展歷程,AI產業很可能遵循從B端到C端再到B端深化的演進路徑,最終實現全產業鏈的協同繁榮。
在C端,大模型主要通過訂閱實現價值,但正面臨叫好不叫座的流量困局:數據顯示,超八成用戶拒絕為對話功能付費,多數人同時使用多個免費模型抵消體驗限制。
相較C端用戶“誰免費用誰,誰補貼跟誰”的主流思維,B端企業對于生成式AI的投入預算越來越多,但對于投入ROI也越來越重視。
“目前業界還很難給出一個確切的ROI中位數,因為大多數企業的AI應用仍處在價值發現和初期探索階段。”畢馬威中國技術和新經濟管理咨詢服務主管合伙人高人伯在2025年上海世界移動通信大會(MWC上海)期間告訴21世紀經濟報道記者,目前已實現正向收益的場景,普遍集中在能夠快速提升內部運營效率的領域,如利用AI輔助軟件開發、自動化生成營銷文案、優化內部知識管理與報告總結等。
在他看來,生成式AI的產業化方向之一是“深度垂直化”:通用大模型的能力應與金融、醫療、法律、制造等行業的專業知識深度融合,形成能夠解決核心業務問題的專用AI,將是價值創造的關鍵。
云側還是端側?
從技術部署來看,“大模型六小虎”普遍采用云端訓練+云端推理,依賴公有云廠商提供算力。
云側的核心盈利方式主要有兩種,一是按API調用次數或Token量付費;二是定制化解決方案,如智譜AI為金融、教育、制造等行業企業提供定制模型,收取開發與運維費用。
這主要面向B端用戶。高人伯告訴記者,B端企業會根據自身業務的成熟度、數據敏感性以及戰略目標,在“標準化”到“定制化”的光譜上動態移動:許多企業在初期會傾向于采購標準化的API服務,這種方式能夠快速驗證AI在通用場景下的潛力;但當單純的標準化服務無法滿足需求,企業便會轉向探索定制化的行業模型。
目前,純API調用模式盈利壓力較大:由于產品同質化、難以深度滿足場景需求等問題,規模效應較難達成,無法通過海量用戶調用分攤模型訓練與維護成本。定制化行業模型盈利能力相對較強:有頭部廠商通過“通用大模型+行業精調”模式,向制造業客戶收取模型定制費及數據服務費,單項目可達數百萬元。
在部署云側的基礎上,今年以來,智譜AI、階躍星辰也在拓展端側:智譜AI今年與珠海市合作搭建“城市級GLM大模型”,覆蓋端側;階躍星辰則將智能終端列為2025年重點場景。
但對于“大模型六小虎”而言,部署端側一方面需要從硬件廠商手中“搶蛋糕”;另一方面生成式AI在端側部署仍然面臨技術挑戰,進一步加大了研發成本。
“將生成式AI模型部署到手機、汽車等終端設備上,是實現普惠AI的關鍵一步,尤其對于需要即時響應和保護數據隱私的場景至關重要。”高人伯指出,但大型AI模型巨大的計算和存儲需求與終端設備有限的資源(如算力、功耗、內存)之間存在天然的矛盾。
如何在保證模型性能的同時,克服這些硬件限制,并為用戶提供流暢、可靠的體驗?據高人伯觀察,業界正在從多個層面積極探索解決方案。首先是通過模型壓縮、知識蒸餾等先進技術,在保證核心功能的前提下,將大模型變得“小而美”,使其能夠在端側高效運行。
芯片廠商也在不斷創新,推出集成NPU等專用AI處理單元的硬件,為端側AI提供更強勁、更節能的算力支持。
此外,“端云協同”被認為是一種非常務實且靈活的路徑,即在終端部署一個輕量級模型處理高頻、簡單的任務,當遇到復雜請求時再智能地調用云端更強大的模型,從而兼顧效率、成本與用戶體驗。