本報記者 查睿 裘雯涵
1月26日—27日,短短兩天內(nèi),國內(nèi)AI創(chuàng)業(yè)公司DeepSeek(深度求索)遭遇兩次短暫宕機,DeepSeek將其歸因為新模型發(fā)布后導致訪問量激增。
新模型指的是剛發(fā)布的推理大模型DeepSeek-R1,由此帶來的訪問量有多大?27日,DeepSeek在蘋果美區(qū)應用商店下載量力壓ChatGPT,登頂免費App下載排行榜。
2024年12月,DeepSeek發(fā)布新一代大語言模型V3,已引起行業(yè)不少討論。1月20日發(fā)布的R1,將DeepSeek的熱度推向了高潮。
一年多時間內(nèi),DeepSeek成為大模型行業(yè)的“黑馬”,是否意味著國內(nèi)大模型迎來彎道超車的機會?
硅谷都在談論DeepSeek
在硅谷,幾乎每個人都在談論DeepSeek。有報道稱,硅谷“被嚇壞了”,工程師正在瘋狂分析DeepSeek。還有說法稱,這是中國的“ChatGPT時刻”。
DeepSeek究竟厲害在哪?高性能、低成本、開源是外界提到的高頻詞。
輿論注意到,DeepSeek的推理計算效率極高,可以與業(yè)內(nèi)一些頂尖的AI模型相媲美,與美國硅谷前沿發(fā)展保持同步。國外大模型排名榜單Arena最新測評顯示,R1基準測試在全類別大模型中排名第三,其中在風格控制分類中與OpenAI o1并列第一,得分達到1357分,甚至略超OpenAI o1。這也幾乎意味著,DeepSeek-R1躋身全球最強大模型之列。
DeepSeek的官方測試也顯示,R1在數(shù)學、代碼、自然語言推理等任務上,性能比肩OpenAI o1正式版。在各自小參數(shù)版本的模型比拼中,R1-32B的數(shù)學推理明顯優(yōu)于o1-mini。
加利福尼亞大學伯克利分校教授亞歷克斯·迪馬基評價,DeepSeek的技術(shù)路線揭示了達到頂尖性能未必需要天文數(shù)字投入,“這對硅谷的燒錢競賽無異于釜底抽薪”。
DeepSeek有多便宜?有數(shù)據(jù)顯示,Deepseek V3的訓練成本僅為558萬美元,不足GPT-4o的二十分之一。推理模型R1的API(應用程序編程接口)服務定價為每百萬tokens(詞元)僅需1元(緩存命中)/4元(緩存未命中),每百萬輸出tokens為16元。大語言模型V3就更便宜了,每百萬tokens僅需0.1元(緩存命中)/1元(緩存未命中),每百萬輸出tokens為2元。DeepSeek的定價約等于Llama 3-70B的七分之一,GPT-4 Turbo的七十分之一。
開源是DeepSeek備受關(guān)注的另一個重要原因。這意味著它已經(jīng)與其他企業(yè)和研究人員共享基礎(chǔ)代碼,其他人能用相同的技術(shù)構(gòu)建和發(fā)布自己的產(chǎn)品。
英偉達資深科學家吉姆·范稱贊DeepSeek是“非美國公司踐行OpenAI初心”的典范,通過開放技術(shù)細節(jié)和訓練方法,為全球研究者賦能。
出身國內(nèi)算力最充足企業(yè)
天眼查信息顯示,DeepSeek背后的實控人是梁文鋒,他所創(chuàng)立的幻方量化是國內(nèi)知名的量化私募基金,這也給DeepSeek打下了良好的算力基礎(chǔ)。
不同于常規(guī)基金依賴基金經(jīng)理,量化基金通過數(shù)量模型的計算尋找投資機會,因此對數(shù)據(jù)尤為敏感,高頻交易更是離不開機器學習。為了從海量數(shù)據(jù)中挖掘投資機會,幻方量化早早開始囤積算力,先后斥資10億元,在美國對芯片出口管制前購買了1萬張英偉達A100型號GPU。機緣巧合下,幻方量化成為國內(nèi)GPU算力最充足的企業(yè)之一。
AI行業(yè)有條規(guī)模化法則,簡單來說,就是算力越大、參數(shù)越多,訓練出的大模型性能就越好。如果遵照這條規(guī)則,幻方量化的算力基礎(chǔ),成了DeepSeek最大的王牌之一。
當然,光靠算力優(yōu)勢,DeepSeek顯然無法與全球AI巨頭抗衡。“DeepSeek爆火主要是創(chuàng)新的技術(shù)路線。”上海人工智能行業(yè)協(xié)會秘書長鐘俊浩認為,架構(gòu)機制、訓練方法和管道并行算法等創(chuàng)新,展現(xiàn)了中國本土AI技術(shù)的潛力,顛覆了中國只是AI技術(shù)跟隨者、應用方的傳統(tǒng)認知。
英國科技網(wǎng)站“生命科學”撰稿人本·特納指出,美國限制向中企出口先進AI計算芯片,迫使DeepSeek-R1研發(fā)者采用更智能、更有效的算法,彌補計算能力的不足。ChatGPT據(jù)報道需要1萬臺英偉達的圖像處理器處理訓練數(shù)據(jù),DeepSeek稱僅用2000臺圖像處理器就取得了類似結(jié)果。
DeepSeek公布的技術(shù)論文顯示,R1在訓練過程中實驗了三種技術(shù)路徑:直接強化學習、多階段漸進訓練和模型蒸餾,其中R1首次證明了直接強化學習的有效性?萍济襟w在技術(shù)解讀中打了個比方,面對同一道題目,大模型同時多次進行回答,系統(tǒng)將給每個答案打分,依照“高分獎勵低分懲罰”的邏輯進行循環(huán),最終得出更具優(yōu)勢的推理路徑。
中國“正在全力沖刺”
“元”公司首席執(zhí)行官扎克伯格日前在一檔播客節(jié)目中坦言,DeepSeek技術(shù)非常先進。他表示,中國“正在全力沖刺”,擔心這個開源模型會被全世界廣泛使用,影響到美國科技行業(yè)的領(lǐng)先地位。
一些美國專家也評論稱,如果最好的開源技術(shù)來自中國,美國開發(fā)人員將在這些技術(shù)之上構(gòu)建他們的系統(tǒng),“從長遠來看,這可能會讓中國成為研發(fā)AI的中心”。
在華盛頓州工作的技術(shù)專家阿爾文·王·格雷林認為,DeepSeek的進展顯示,美國的領(lǐng)先優(yōu)勢正在縮小,各國應該采取合作方式建設先進AI,而不是在AI領(lǐng)域進行“軍備競賽”。
在長文本交互和多模態(tài)的全球競爭中,國內(nèi)大模型已經(jīng)嶄露頭角,隨著大模型推理能力的迭代,中國還有機會彎道超車。鐘俊浩認為,高效利用計算資源、相對較低的成本,以及更高的市場活躍度,是國內(nèi)訓練推理大模型的優(yōu)勢所在。他表示,國內(nèi)面臨高端算力芯片緊缺的難題,但推理大模型能更集約利用有限的算力資源,同時國內(nèi)算力基礎(chǔ)設施較為完備,訓練硬件成本較低。
更重要的是,中國的人工智能市場處于開放競爭的狀態(tài),不僅有阿里、字節(jié)、商湯等大型AI廠商,還有階躍星辰、MiniMax等高水平的AI創(chuàng)業(yè)企業(yè)。更多市場參與者,就有更多創(chuàng)新想法,意味著市場更活躍。
此外,中國具有極強的政策引導能力。例如上海發(fā)布“模塑申城”實施方案,就進一步明確“5+6”應用場景,為人工智能企業(yè)在推理方面的應用拓寬了發(fā)展空間,加速其商業(yè)化進程。