DeepSeek延遲長、吞吐慢 用戶流失流量大跌

人工智慧研究公司SemiAnalysis的報告顯示,中國人工智慧(AI)公司DeepSeek(深度求索)用戶留存和官網流量雙雙退燒,市占率持續下滑。
流量和用戶呈殭屍化
Semianalysis於7月3日發布研究報告稱,今年1月DeepSeek R1模型發布後,用戶流量激增,市占率最高到7.5%左右,但隨後開始下降,到了5月分已經跌到5%左右,其流量和用戶呈現殭屍化(不活躍)。
此外,來自DeepSeek官網的流量數據更糟,與2月相比,5月的流量下降了29%。而同期其他大模型如ChatGPT增長了40.6%,美國公司Anthropic的Claude增長了36.5%,谷歌的Gemini增長了85.6%,美國億萬富豪馬斯克的Grok增長了247.1%。
數據顯示,由DeepSeek自己託管的那部分Token(大型語言模型處理文本的基本單位)流量,占DeepSeek全部Token的比率呈現逐月下降趨勢,從3月的42%下降到了5月的16%。
不過儘管DeepSeek自家託管模型的用戶增長乏力,但在第三方託管平台,其推理模型R1和通用模型V3的總使用量一直在持續快速增長。
DeepSeek流量為什麼大跌?
在第三方託管平台上DeepSeek大模型並未「遇冷」的情況下,為什麼用戶從DeepSeek自家官網流失,轉向了其他開源提供商?
報告指出,DeepSeek在提供低價的同時,至少在兩方面犧牲了性能,造成用戶流失。
其一,首個Token輸出時間(Time-to-First-Token)。DeepSeek強制用戶等待數秒,模型才會給出第一個Token。而用戶只需花費2至4美元,就能從第三方託管平台,如Parasail或Friendli這類服務商那裡,獲得近乎零延遲的體驗。此外,微軟雲端運算Azure的服務價格雖比DeepSeek高2.5倍,但延遲卻減少了整整25秒。
此外,DeepSeek採用的64K「上下文窗口」(指模型在任何時候可以考慮或記住的文本量,以詞元為單位),幾乎是主流模型服務商中最小的,較小的上下文窗口限制了編程等場景的發揮。若花費同樣的價格,用戶可以從Lambda和Nebius等服務商那裡獲得超過2.5倍的上下文窗口大小。
在AMD(超微)和輝達(NVIDIA)晶片上對DeepSeek V3模型的基準測試顯示,模型服務商會透過在單個GPU(圖形處理器)或GPU集群上同時處理更多用戶的請求(即「批次處理」)。這意味著,用戶需要忍耐更久的延遲和更慢的吞吐量,從而導致用戶體驗急遽下降。
DeepSeek為什麼不關心用戶體驗?
報告指出,透過採用極高批次處理方式,DeepSeek可以最大限度的減少用於模型推理和對外服務的運算資源消耗,從而將盡可能多的算力保留在公司內部,從而用於研發。DeepSeek公司關注的焦點是AGI(Artificial General Intelligence,通用人工智慧),而非從終端用戶身上賺錢。
DeepSeek自今年1月推出AI應用程式以來,其安全政策和數據保護在國際社會受到了越來越多的審查。到目前為止,已有美國和德國等多個國家禁止在政府設備中使用DeepSeek應用程式。◇