最近,關于Scaling Law是否失效的討論居高不下。
起因是The Information、路透社和彭博社接連爆出LLM進展放緩,Scaling Law撞墻。
The Information表示,據(jù)OpneAI內部人員透露,GPT系列模型更新緩慢,即將推出的下一代旗艦模型Orion并沒有實現(xiàn)質的飛躍,雖然性能上超過了以往模型,但相較于從GPT-3到GPT-4的迭代,改進幅度縮小,OpenAI正在轉變策略。
路透社也發(fā)文表示,由于當前方法受到限制,OpenAI和其他公司正在尋求通向更智能AI的新途徑。
隨后,彭博社也出來拱火,認為OpenAI、谷歌、Anthropic三家AI公司,在新模型開發(fā)上的付出與回報的差額正在逐漸擴大。
報道稱,谷歌即將推出的新版Gemini并未達到內部預期,Anthropic也推遲了備受期待的Claude 3.5「超大杯」Opus的發(fā)布時間。
盡管,后面山姆.奧特曼親自下場辟謠:沒有墻。微軟AI主管Mustafa Suleyman也表示,不會有任何放緩。

但不爭的事實是,模型界“三巨頭”在預訓練方面接連碰壁,模型發(fā)展遇到瓶頸。Scaling Law的邊界真的已經(jīng)到來了嗎?
一、暴力美學失效
Scaling Law也稱尺度定律,被業(yè)界認為是大模型預訓練第一性原理。
2020年,OpenAI發(fā)布論文“Scaling Laws for Neural Language Models”,首次發(fā)現(xiàn)模型參數(shù)量、數(shù)據(jù)集大小、訓練計算量的關系,即三者中任何一個因素受限時,Loss與其之間存在冪律關系,其中一些趨勢跨越了超過七個數(shù)量級。

也就是說,模型能力會隨著參數(shù)量的增加而不斷提升。OpenAI沿著這個思路也確實大獲成功,在論文發(fā)布四個月后,GPT3問世,再到2022年ChatGPT上線,后面的故事大家都已經(jīng)清楚。
從GPT3到GPT4,從Gemini到Claude,Scaling Law的暴力美學被一次次證明其正確性。
不過,隨著模型參數(shù)不斷增加,對數(shù)據(jù)量的需求也是指數(shù)級增長,人類互聯(lián)網(wǎng)產(chǎn)生的數(shù)據(jù)遲早有一天會被大模型“吞噬”,只是這一天來得如此之快。
The Information指出,OpenAI下一代ChatGPT 5的訓練出現(xiàn)了重大瓶頸,原因之一是高質量文本數(shù)據(jù)越來越少。
下一代要發(fā)布的旗艦模型Orion,在預訓練階段只用了20%的訓練量,就達到了GPT4的水平,能力上升的很快,但OpenAI的研究者發(fā)現(xiàn),后邊增加訓練量,Orion的水平提升卻很慢很微小,沒有實現(xiàn)從GPT3到GPT4的質得飛躍,這或許也是OpenAI并沒有將Orion命名為GPT5的原因。
谷歌和Anthropic也面臨著相同的問題,谷歌的下一代Gemini 模型表現(xiàn)低于內部預期,Anthropic Claude 3.5 Opus 的發(fā)布也將推遲。
國內,10月初,就有消息傳出,“AI六小虎”中已經(jīng)有兩家公司已經(jīng)決定逐步放棄預訓練模型,近期又有消息指出,仍在繼續(xù)預訓練的公司只剩下智譜AI和MiniMAX,其他包括月之暗面、百川只能在內的公司都已經(jīng)放棄預訓練。
除了這些AI初創(chuàng)公司,國內的BAT包括字節(jié)這些大廠對預訓練的進展并沒有披露過多,都在卷向應用層。
實際上,國內模型廠商轉向應用也從側面印證了大模型Scaling Law目前存在的困境。
LLM除了吞噬了大量的數(shù)據(jù)外,在訓練過程中所消耗的大量算力、電力等能源也成為嚴重阻礙,此外更為重要的是,超大規(guī)模的前期投入與收益無法匹配,ROI過低。
OpenAI研究者Noam Brown前段時間曾公開表示,更先進的模型可能在經(jīng)濟上不可行?!爱吘梗覀冋娴囊ㄙM數(shù)千億美元或數(shù)萬億美元訓練模型嗎?”Brown 說,“在某個時候,scaling 范式會崩潰。”
超大規(guī)模語言模型的預訓練過程極其耗費資源,通常需要數(shù)十萬張GPU并行運行數(shù)月之久,單次訓練成本可達數(shù)千萬至數(shù)億美元。例如,擁有1.8萬億參數(shù)的ChatGPT 4模型,其單次訓練費用大約為6300萬美元。
然而盡管投入巨大,這些新模型在性能上的提升卻與之前的模型性能所差無幾,這種情況下,大模型公司下一輪的融資故事恐怕難以講下去。
目前,以OpenAI為代表的初創(chuàng)企業(yè),現(xiàn)在并沒有跑通商業(yè)模式,投資人的錢也不是大風刮來的,如果長時間看不到回報,他們對繼續(xù)投資的態(tài)度肯定會更加謹慎。畢竟,沒有那個投資人原意一直當“冤大頭”。在這種情況下,國內大模型行業(yè)整體轉向了更符合商業(yè)利益的做法——做AI應用。
另外從技術角度看,整個AI行業(yè)還有另一個轉向——從預訓練向推理轉向。
Scaling Law的忠實追隨者OpenAI前首席科學家Ilya Sutskever,在最近接受路透社采訪時表示,擴大預訓練的結果已經(jīng)達到了平臺期。
“現(xiàn)在重要的是「擴大正確的規(guī)模」”他表示,“2010年代是scaling的時代,現(xiàn)在,我們再次回到了奇跡和發(fā)現(xiàn)的時代。每個人都在尋找下一個奇跡?!?/p>
二、大廠轉向推理層,尋找新的Scaling Law
面對大模型Scaling Law降速的事實,各巨頭紛紛尋找新的擴展定律。
事實上,目前討論的Scaling Law撞墻更多的是指預訓練擴展定律(Pre-training Scaling Law),也就是上文討論的大模型暴力美學。
但是有關后訓練和推理的Scaling Law還未被充分挖掘,這也是諸多大佬認為Scaling Law沒有失效的重要原因。
后訓練擴展定律(Post-training Scaling Law)與傳統(tǒng)的預訓練擴展定律不同,關注的是在模型訓練完成后,如何通過增加推理階段的計算量來提升模型性能。
后訓練擴展定律表明,即使模型參數(shù)保持不變,通過增加推理階段的計算量,也可以顯著提升模型的性能
而推理擴展定律(Inference Scaling Law)則強調在推理階段通過增加計算資源來提升模型性能的原則。
提到這兩個定律,不得不提到測試時計算(test-timi compute ),測試時計算可以被看做是實現(xiàn)后訓練擴展定律和推理擴展定律的關鍵手段。
那么什么是測試時計算?
測試時計算是一種在模型推理階段通過優(yōu)化計算資源分配來提高模型性能的方法。與預訓練相比,測試時計算借助強化學習、原生思維鏈和更長的推理時間,能夠在面對復雜問題時,能夠智能地分配計算資源,用最經(jīng)濟的成本提供更高效和準確的答案。
OpenAI推出的O1推理模型正是靠測試時計算實現(xiàn)的。即在訓練好的O1模型回答問題時,也就是在推理階段,給他更多時間和算力,讓它自己從自己的回復中得到更好的答案。
在OpenAI提供的O1模型后訓練階段的縮放定律圖標顯示,隨著強化學習時間和推理思考時間的增長,O1模型性能得到顯著提升。
不僅OpenAI,微軟CEO Satya Nadella在微軟Ignite大會上也直言,看到了“測試時計算”新的擴展規(guī)律的出現(xiàn),并表示微軟Copilot的 "深入思考"功能也是利用這一規(guī)律來解決更難的問題。
實際上,OpenAI O1模型的推出將預訓練Scaling Law范式帶向了推理層的Scaling Law,國內企業(yè)也紛紛追隨OpenAI腳步上線推理模型。
這兩天,國內DeepSeek扔出重磅炸彈,上線了全新的推理模型 DeepSeek-R1-Lite-Preview,性能直逼O1。背后也同樣是推理層的Scaling Law在發(fā)揮作用。
DeepSeek-R1在數(shù)學和編程方面與O1-preview相當,甚至在一些競賽中已經(jīng)領先O1。
DeepSeek之所以能有如此強勢的推理能力,很重要的一點就是他們采用了超長推理時間。官方表示,DeepSeek R1 系列模型推理過程包含大量反思和驗證,思維鏈長度可達數(shù)萬字。隨著思考長度的增加,模型性能在穩(wěn)步提升。

最近,一反常態(tài)的月之暗面,也在成立一周年之際,向外界公布了其數(shù)學模型k0-math的進展情況,要知道此前月之暗面的唯一核心在C端產(chǎn)品Kimi身上。
據(jù)了解,k0-math采用了強化學習和思維鏈推理技術,也是Open AI o1系列背后的關鍵技術。
楊植麟早已預見,隨著訓練數(shù)據(jù)達到上限,推理層的Scaling Law想象空間更大,也因此在推理模型上早早準備并上線。他表示,Open AI o1的變化其實可以預測,接下來會越來越關注基于強化學習(RL)的方法去“Scale”。
國內還有阿里、昆侖萬維等也都上線了相關的推理大模型產(chǎn)品,無論從技術實現(xiàn)角度還是可落地性角度,Scaling Law已經(jīng)從預訓練向推理層轉向。
結尾
大模型預訓練的Scaling Law之所以能跑出來,是因為在當時的條件下,這是投入與回報最佳的Scale up路線。
然而,站在歷史角度上看,每個技術曲線的Scaling law都有其壽命,不存在一招吃遍天下的情況。
正如摩爾定律最初定義的是集成電路中晶體管數(shù)量每兩年翻一番,但隨著時間的推移,這一規(guī)律在新技術的推動下不斷擴展,成為廣義摩爾定律,甚至超越之前的發(fā)展速度一樣。
在AI領域,雖然短期內可能會遇到技術瓶頸或成本效益比下降的問題,但從長遠來看,AI的軟硬件能力仍然會以每十年六個數(shù)量級的速度呈指數(shù)增長。
這種增長將通過多種創(chuàng)新路徑得以實現(xiàn),包括但不限于算法優(yōu)化、硬件加速、新型計算架構等,共同維持AI技術的快速發(fā)展趨勢。
即使Scaling Law真的撞墻,前代技術的商業(yè)化應用紅利依然會持續(xù)很久。