• <samp id="pv2xq"><tbody id="pv2xq"><tt id="pv2xq"></tt></tbody></samp>
  • 
    
  • <rp id="pv2xq"><acronym id="pv2xq"></acronym></rp>
  • 中文在线√天堂_精品亚洲成A人片在线观看_亚洲人成亚洲人成在线观看_天堂在线中文_国产精品自在线拍国产电影

    全球科研團隊競逐低成本AI模型研發(fā)新范式

    放大字體  縮小字體 發(fā)布日期:2025-02-24     來源:光明日報     瀏覽次數(shù):22
    核心提示:未來應(yīng)繼續(xù)推進計算系統(tǒng)智能化,不斷追求更高能力密度,以更低成本,實現(xiàn)大模型高效發(fā)展。

    美國斯坦福大學(xué)等機構(gòu)研究團隊近日宣布,在基座大模型基礎(chǔ)上,僅耗費數(shù)十美元就開發(fā)出相對成熟的推理模型。盡管其整體性能尚無法比肩美國開放人工智能研究中心(OpenAI)開發(fā)的o1、中國深度求索公司的DeepSeek-R1等,但此類嘗試意味著企業(yè)可以較低成本研發(fā)出適合自身的AI應(yīng)用,AI普惠性有望增強。同時,其所應(yīng)用的“測試時擴展”技術(shù)或代表一條更可持續(xù)的AI研發(fā)路徑。

     

    低成本玩轉(zhuǎn)高級推理

     

    美國斯坦福大學(xué)和華盛頓大學(xué)研究團隊近日宣布研發(fā)出名為s1的模型,在衡量數(shù)學(xué)和編碼能力的測試中,可媲美o1DeepSeek-R1等。研究團隊稱,訓(xùn)練租用所需的計算資源等成本只需幾十美元。

     

    s1的核心創(chuàng)新在于采用了“知識蒸餾”技術(shù)和“預(yù)算強制”方法。“知識蒸餾”好比把別人釀好的酒進一步提純。該模型訓(xùn)練數(shù)據(jù)是基于谷歌Gemini Thinking Experimental模型“蒸餾”出的僅有1000個樣本的小型數(shù)據(jù)集。

     

    “預(yù)算強制”則使用了AI模型訓(xùn)練新方法——“測試時擴展”的實現(xiàn)方式。“測試時擴展”又稱“深度思考”,核心是在模型測試階段,通過調(diào)整計算資源分配,使模型更深入思考問題,提高推理能力和準確性。

     

    “預(yù)算強制”通過強制提前結(jié)束或延長模型的思考過程,來影響模型的推理深度和最終答案。s1對阿里云的通義千問開源模型進行微調(diào),通過“預(yù)算強制”控制訓(xùn)練后的模型計算量,使用16個英偉達H100 GPU僅進行26分鐘訓(xùn)練便達成目標。

     

    美國加利福尼亞大學(xué)伯克利分校研究團隊最近也開發(fā)出一款名為TinyZero的精簡AI模型,稱復(fù)刻了DeepSeek-R1 Zero在倒計時和乘法任務(wù)中的表現(xiàn)。該模型通過強化學(xué)習(xí),實現(xiàn)了部分相當于30億模型參數(shù)的大語言模型的自我思維驗證和搜索能力。團隊稱項目訓(xùn)練成本不到30美元。

     

    “二次創(chuàng)造”增強AI普惠性

     

    清華大學(xué)計算機系長聘副教授劉知遠接受記者采訪時說,部分海外研究團隊使用DeepSeek-R1、o1等高性能推理大模型來構(gòu)建、篩選高質(zhì)量長思維鏈數(shù)據(jù)集,再用這些數(shù)據(jù)集微調(diào)模型,可低成本快速獲得高階推理能力。

     

    相關(guān)專家認為,這是AI研發(fā)的有益嘗試,以“二次創(chuàng)造”方式構(gòu)建模型增強了AI普惠性。但有三點值得注意:

     

    首先,所謂“幾十美元的低成本”,并未納入開發(fā)基座大模型的高昂成本。這就好比蓋房子,只算了最后裝修的錢,卻沒算買地、打地基的錢。AI智庫“快思慢想研究院”院長田豐告訴記者,幾十美元成本只是最后一個環(huán)節(jié)的算力成本,并未計算基座模型的預(yù)訓(xùn)練成本、數(shù)據(jù)采集加工成本。

     

    其次,“二次創(chuàng)造”構(gòu)建的模型,整體性能尚無法比肩成熟大模型。TinyZero僅在簡單數(shù)學(xué)任務(wù)、編程及數(shù)學(xué)益智游戲等特定任務(wù)中有良好表現(xiàn),但無法適用于更復(fù)雜、多樣化的任務(wù)場景。而s1模型也只能通過精心挑選的訓(xùn)練數(shù)據(jù),在特定測試集上超過早期版本o1 preview,而遠未超過o1正式版或DeepSeek-R1。

     

    最后,開發(fā)性能更優(yōu)越的大模型,仍需強化學(xué)習(xí)技術(shù)。劉知遠說,就推動大模型能力邊界而言,“知識蒸餾”技術(shù)意義不大,未來仍需探索大規(guī)模強化學(xué)習(xí)技術(shù),以持續(xù)激發(fā)大模型在思考、反思、探索等方面的能力。

     

    AI模型未來如何進化

     

    2025年美國消費電子展上,美國英偉達公司高管為AI的進化勾畫了一條路線圖:以智能水平為縱軸、以計算量為橫軸,衡量AI模型的“規(guī)模定律”呈現(xiàn)從“預(yù)訓(xùn)練擴展”到“訓(xùn)練后擴展”,再到“測試時擴展”的演進。

     

    “預(yù)訓(xùn)練擴展”堪稱“大力出奇跡”——訓(xùn)練數(shù)據(jù)越多、模型規(guī)模越大、投入算力越多,最終得到AI模型的能力就越強。目標是構(gòu)建一個通用語言模型,以GPT早期模型為代表。而“訓(xùn)練后擴展”涉及強化學(xué)習(xí)和人類反饋等技術(shù),是預(yù)訓(xùn)練模型的“進化”,優(yōu)化其在特定領(lǐng)域的任務(wù)表現(xiàn)。

     

    隨著“預(yù)訓(xùn)練擴展”和“訓(xùn)練后擴展”邊際收益逐漸遞減,“測試時擴展”技術(shù)興起。田豐說,“測試時擴展”的核心在于將焦點從訓(xùn)練階段轉(zhuǎn)移到推理階段,通過動態(tài)控制推理過程中的計算量(如思考步長、迭代次數(shù))來優(yōu)化結(jié)果。這一方法不僅降低了對預(yù)訓(xùn)練數(shù)據(jù)的依賴,還顯著提升了模型潛力。

     

    三者在資源分配和應(yīng)用場景上各有千秋。預(yù)訓(xùn)練像是讓AI模型去學(xué)校學(xué)習(xí)基礎(chǔ)知識,而后訓(xùn)練則是讓模型掌握特定工作技能,如醫(yī)療、法律等專業(yè)領(lǐng)域。“測試時擴展”則賦予了模型更強推理能力。

     

    AI模型的迭代還存在類似摩爾定律的現(xiàn)象,即能力密度隨時間呈指數(shù)級增強。劉知遠說,2023年以來,大模型能力密度大約每100天翻一番,即每過100天,只需要一半算力和參數(shù)就能實現(xiàn)相同能力。未來應(yīng)繼續(xù)推進計算系統(tǒng)智能化,不斷追求更高能力密度,以更低成本,實現(xiàn)大模型高效發(fā)展。

     

    (新華社北京223日電 記者彭茜)

     

    《光明日報》(20250224 12版)


    工博士工業(yè)品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與商城(jwggg.cn)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
    聯(lián)系電話:021-31666777
    新聞、技術(shù)文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com
    无码精品a∨在线观看中文_精品亚洲成A人片在线观看_亚洲人成亚洲人成在线观看_天堂在线中文
  • <samp id="pv2xq"><tbody id="pv2xq"><tt id="pv2xq"></tt></tbody></samp>
  • 
    
  • <rp id="pv2xq"><acronym id="pv2xq"></acronym></rp>