金正恩考察朝鮮核物�(zhì)生產(chǎn)基地和核武器研究所
低成本培�(yǎng)出的“數(shù)理天才�
DeepSeek R1有多厲害�
有測試者讓R1詳細(xì)解釋勾股定理,R1在不�30秒的時間�(nèi)生成了完整的圖形動畫,給出了�(jīng)典的證明過程,沒有出�(xiàn)差錯。另一個常用的測試問題是碰撞檢�,測試者要求大模型編寫一個程序,使得一顆小球在某個緩慢旋�(zhuǎn)的幾何形狀�(nèi)彈跳,并保持小球停留在形狀�(nèi)。碰撞檢測十分考驗?zāi)P偷耐评砟芰?,稍有不慎就�?dǎo)致肉眼可見的物理錯誤。這項測試?yán)铮琑1的表�(xiàn)明顯�(yōu)于OpenAI o1 pro模式�
OpenAI�2024�9月發(fā)布了推理模型o1,首次實�(xiàn)真正的通用推理能力,相比其前作GPT-4o有巨大的性能提升,能在“博士級別”的科學(xué)問答�(huán)節(jié)上超越人類專家。新加坡南洋理工大學(xué)計算�(jī)�(xué)院助理教授劉子緯向《中國新聞周刊》解�,傳�(tǒng)的ChatGPT模型屬于感知模型,擅長提取事件信�。但真實世界的很多任�(wù)不能僅靠感知完成,而是需要一定的決策推理,而且越復(fù)雜的任務(wù)決策成分越多,比如編�、數(shù)�(jù)分析等。因�,推理模型是�(yè)界公�(rèn)的通往通用人工智能(AGI)不可或缺的模型形態(tài)�
同為推理模型,在很多方面,R1都與o1的性能持平。在美國�(shù)�(xué)邀請賽AIME2024的測試中,R1取得�79.8%的成�,甚至略高于o1,甩開其他開源模型一大截。編碼類任務(wù)方面,R1也展�(xiàn)出專家級水平,在算法競賽平臺Codeforces上的表現(xiàn)超過�96.3%的人類參賽��
在DeepSeek公開�22頁技�(shù)報告�,有一個展示R1能力的直觀案例。在解決一道復(fù)雜數(shù)�(xué)表達(dá)式問題時,R1在解題步驟中突然停下來說“等�,這是個值得�(biāo)記的啊哈時刻�,隨后自主修正了解題過程?!鞍」鳖愃朴谌祟惖念D�,R1的這種行為完全是自�(fā)�(chǎn)生的,而非�(yù)先設(shè)�。這也意味著,它已�(jīng)擁有了相�(dāng)程度的思考和自悟能力�
看上去R1已經(jīng)走出了“題海戰(zhàn)�(shù)�,轉(zhuǎn)而�(jìn)入了探究性學(xué)�(xí)的領(lǐng)域。事實上,這正是它的核心技�(shù)�(qiáng)化學(xué)�(xí)與傳�(tǒng)�(jiān)督學(xué)�(xí)的差�。劉知遠(yuǎn)指出,傳�(tǒng)大模型特別是o1以前的GPT系列模型,都采用�(jiān)督學(xué)�(xí)的訓(xùn)練方�,意味著模型�(xué)�(xí)的目�(biāo)有標(biāo)�(zhǔn)答案。比如讓模型根據(jù)一篇文章的部分文字,去�(yù)測下一個詞。由于用于訓(xùn)練的文章是完整的,因此這個詞是固定的,預(yù)測結(jié)果也有明確的對錯。人類就像嚴(yán)厲的老師,對模型的預(yù)測行為反�(fù)�(guī)�(xùn)�
而強(qiáng)化學(xué)�(xí)則是在開放環(huán)境中�(jìn)行的任務(wù)�(xùn)�,開�(fā)者只會告訴模�,它走出的每一步會得到外部�(huán)境怎樣的反�。模型需要根�(jù)反饋,自己學(xué)會如何去接近最終目�(biāo)?!斑@個世界沒有那么多純數(shù)�(xué)題,因此無法永遠(yuǎn)通過給標(biāo)�(zhǔn)答案的方�,讓模型完成�(jiān)督學(xué)�(xí)。”劉知遠(yuǎn)�。從�(jiān)督學(xué)�(xí)向強(qiáng)化學(xué)�(xí)的范式轉(zhuǎn)�,是實現(xiàn)推理模型的關(guān)鍵�
劉子緯指�,o1可視作大模型�(qiáng)化學(xué)�(xí)的鼻�,但其沒有公開技�(shù)文件,因此其�(qiáng)化學(xué)�(xí)的具體技�(shù)路線和占比,只能靠業(yè)�(nèi)猜測,但可以確定其采用了�(yù)�(xùn)練、監(jiān)督微�(diào)、強(qiáng)化學(xué)�(xí)的流�。預(yù)�(xùn)練類似“背書自�(xué)”基�(chǔ)知識,監(jiān)督微�(diào)類似�(xué)生模仿教師的示范來解例題,最后強(qiáng)化學(xué)�(xí)相當(dāng)于“模擬考試”。而R1則拋棄了�(jiān)督學(xué)�(xí),也就是跳過了例題階�,僅憑基�(chǔ)語言能力和數(shù)�(xué)�(guī)�,在持續(xù)解題試錯中自悟方法論,考出高分,這一點得到了絕大多數(shù)從業(yè)者的贊嘆�
而除了性能外,R1更令人震撼的�(yōu)點在于便��2024年底,DeepSeek推出V3模型,作為R1的前體,�(xùn)練成本僅�557.6萬美�,�2020年發(fā)布的GPT-3的訓(xùn)練成本接�1200萬美元,GPT-4更是�1億美�。技�(shù)報告顯示,R1面向開發(fā)者的服務(wù)定價為每百萬輸入字符串(token�1�4�,這一價格只有o1�1/30左右�
R1怎么能如此便�?劉子緯�(rèn)�,算力達(dá)到一定量級的情況�,可以通過工程�(chuàng)新把性能差距抹平。在堆算力的“大力出奇跡”路線�(jìn)入瓶頸后,DeepSeek選擇了在底層算法、訓(xùn)練模式和�(shù)�(jù)三個層面�(jìn)行了工程迭代?;诨旌蠈<夷P?、注意力�(jī)制等方面的創(chuàng)�,R1做到了“用50次運算達(dá)成別人做100次運算的效果�,效能提升明�。而在拋棄�(jiān)督學(xué)�(xí)后,計算資源的需求也大幅減少�
由于超高性價比,1�27�,蘋果App Store中國區(qū)免費榜顯�,DeepSeek站上首位。同�,DeepSeek在美區(qū)蘋果App Store免費榜從昨日的第六位飆升至第一�。有�(yè)�(nèi)人士�,R1已經(jīng)成為美國頂尖高校研究人員的首選模型。一位不愿具名的來自澳門大學(xué)的AI研究者向《中國新聞周刊》表�,R1完全可以取代�??蒲袑PT模型的使用需�,在對科研文章的錯誤識別、修改潤�、語言�(zhuǎn)換上都表�(xiàn)出色�
商業(yè)化落地仍待探�
盡管R1展現(xiàn)出了驚人的推理能力,但它的思維過程可能難以被人理解。技�(shù)報告指出,純�(qiáng)化學(xué)�(xí)�(xùn)練出來的模型存在可讀性差和語言混雜問題,有用戶反映多語言輸入可能會造成模型輸出混亂,有時中文的提問也可能得到英文的回答。這一�(xiàn)象更多出�(xiàn)在純�(qiáng)化學(xué)�(xí)的R1-Zero模型��
劉子緯也將R1形容為“有些偏科的�(shù)理天才�。R1在他眼中雖然很聰明,但給出的文字回復(fù)相比于o1缺乏流暢性和情緒價�,顯得笨�。“公司定位會�(dǎo)致其偏重模型性能?!眲⒆泳曊f。由于DeepSeek還在提升模型能力,尚未開始優(yōu)化用戶體驗,因此用戶親和度方面還有待提升。在這一點上,OpenAI涉足較早�
但當(dāng)�(chuàng)作任�(wù)涉及推演和類比時,R1的表�(xiàn)仍可圈可�。有測試者用簡單的幾個提示詞,就讓R1在極短時間內(nèi)�(chuàng)作了一篇情節(jié)精彩的科幻小說。社交平臺上,有電影評論賬號喂給R1《出師表�,讓其仿照該文體�(chuàng)作一篇影�,R1給出了符合文言文規(guī)�,且“超越一般影評人”的洞見。劉子緯�(rèn)�,模型的推理能力可以遷移到文�(xué),令其產(chǎn)生通過邏輯思辨的方式創(chuàng)作議論文的能��
用戶使用R1的過程中,偶爾會得到錯誤答案,甚至有用戶�(fā)�(xiàn)詢問R1身份�,其可能自稱o1。這種混亂廣泛出現(xiàn)在現(xiàn)有大模型中,有業(yè)�(nèi)人士�(rèn)�,這源于大多數(shù)模型對OpenAI基礎(chǔ)模型的蒸�。蒸餾即將訓(xùn)練過的“教師模型”的知識傳遞給“學(xué)生模型�,從而在最大程度保存原模型性能的同�,大幅縮減計算資源消�?!坝心P妥龅�?0�,我想迅速達(dá)�55分的水平,比較快的方式就是去蒸餾一個‘教師模型�,可以迅速拿到模型反饋,暴露思維過程,得到可貴的�(shù)�(jù)基礎(chǔ)。研�(fā)初期,許多企�(yè)都依靠或者部分依靠模型蒸�。”劉子緯坦言�
由于原模型只能提�60分的答案,要漲到70分就得靠模型努力找一條新�。因此蒸餾無法形成模型的真正迭代。劉知遠(yuǎn)�(rèn)�,強(qiáng)化學(xué)�(xí)是通向AGI的重要版圖之一,符合人類認(rèn)知世界的方式,已成為大模型未來發(fā)展的�(yè)�(nèi)共識,強(qiáng)化學(xué)�(xí)的技�(shù)成熟也需要時��
劉子緯指出,R1使用了一些GPT-4o�(chǎn)生的�(shù)�(jù)去做“熱啟動�,讓模型先形成對�(xiàn)有問題的基本�(rèn)�,這也被稱為數(shù)�(jù)蒸餾。相比之�,完全通過“冷啟動”讓模型立刻�(jìn)入強(qiáng)化學(xué)�(xí)狀�(tài)是非常困難的?!耙粋€小�(xué)生學(xué)�(xí)知識也得先學(xué)課本,達(dá)到一定智力水平后,再�(jìn)入實踐中�(xué)�(xí)?!庇谜鎸�?shù)�(jù)而非模型�(shù)�(jù)�(xùn)練模型是開發(fā)者的共識,但真實�(shù)�(jù)的篩�、清洗、降噪等工作并不容易�
“即使用模型輸出�(shù)�(jù)也很難保證訓(xùn)練結(jié)�,這取決于人類給模型創(chuàng)造了怎樣的問�,以及提供怎樣的答�?!眲⒆泳曊f。例如DeepSeek使用了大量代碼數(shù)�(jù)、數(shù)�(xué)題甚至奧�(shù)題用于訓(xùn)練R1。“如何將這些�(shù)�(jù)喂給模型,需要大量創(chuàng)�?�?/p>
從這個意義上�,R1的表�(xiàn)已足夠出�,而它的創(chuàng)造者的主業(yè)甚至不是AI。DeepSeek背后的投資公司為幻方量化,是一家依靠數(shù)�(xué)與計算機(jī)科學(xué)�(jìn)行量化投資的基金公司。該公司�2016年起將深度學(xué)�(xí)模型�(yīng)用于實盤交易,囤積了大量算力,正式成立大模型�(tuán)隊DeepSeek的時間則�2023�?!耙菜闶歉睒I(yè)做得比主�(yè)出圈的典型了?!眲⒆泳曊f�
大模型企�(yè)仍需審慎研判模型的商�(yè)價�,也就是能不能賺�。劉知遠(yuǎn)指出,國�(nèi)外企�(yè)都還在尋找大模型的最佳變�(xiàn)方式。目�,市場上已有多家企業(yè)具備做出GPT水平大模型的能力,接下來要考慮區(qū)分度是什�,落地的用戶App是什�,以及在價格�(zhàn)的前提下如何收回上億元的研發(fā)成本。這些問題的答案都還相對模��
劉子緯認(rèn)為,大模型已足夠�(qiáng),但在垂類上跟用戶需求還沒有緊密貼合,未來AGI的核心交互形�(tài)也尚無定論。目�,國�(nèi)外大模型企業(yè)一部分繼續(xù)高舉高打AGI,保證模型能�,通過用戶來試探落地方�。比如有�(xué)生用大模型來備考、寫論文�。另一部分企業(yè)則專注于做垂類應(yīng)用,比如�(yī)療領(lǐng)�。劉子緯�(yù)��2025年會涌現(xiàn)一大批大模型應(yīng)用,是真正的“強(qiáng)化學(xué)�(xí)之年��
多位�(yè)�(nèi)人士表示,DeepSeek真正的價�,在于展示了工程實踐和理論創(chuàng)新之間的平衡�,開�(chuàng)了一條符合現(xiàn)實算力約束的技�(shù)迭代道路?!癛1說明開源 AI 僅落后于閉源 AI 不到 6 個月?!痹趧⒅h(yuǎn)看來,GPT階段也就�2023年初的時�� OpenAI模型�(fā)布之�,國�(nèi)�(tuán)隊需要一年的時間才能趕上。但是到了文生視頻模型Sora,以及后來的GPT-4o和o1,國�(nèi)的追趕時間縮短到半年以內(nèi)�
“DeepSeek的階段性成果釋放了一個信號,那就是通過芯片禁運等方式來遏制國內(nèi)AI�(fā)展難以行�。這就是開源的力量。”劉知遠(yuǎn)��
記者:周游(n[email protected]�
點擊�(jìn)入專題: DeepSeek“火”到海外" />所有人都在討論的“DeepSeek”,究竟是啥�多平臺下�
Android�PC�
查看所� 0條評�>�(wǎng)友評�
國家計算�(jī)病毒�(yīng)急處理中心監(jiān)測發(fā)�(xiàn)12款違�(guī)移動�(yīng)�
國家計算�(jī)病毒�(yīng)急處理中心監(jiān)測發(fā)�(xiàn)12款違�(guī)移動�(yīng)�
未能向總�(tǒng)辦公室轉(zhuǎn)�(dá)傳喚� 韓國�(diào)查機(jī)�(guān)�(zhuǎn)向前往總統(tǒng)官邸
反饋原因
其他原因