日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

二十問(wèn)拆解 DeepSeek:一場(chǎng)針對(duì)制裁的算力游擊戰(zhàn)

 天承辦公室 2025-02-05 發(fā)布于江蘇
出品丨AI 科技大本營(yíng)(ID:rgznai100)

2025 年初,AI 領(lǐng)域掀起了一場(chǎng)前所未有的風(fēng)暴,一家成立僅三年的中國(guó)公司深度求索接連放出兩枚“核彈”:

  • DeepSeek 推理模型 R1:正面硬剛 OpenAI o1,不僅性能媲美,還徹底開(kāi)源。

  • DeepSeek 千億參數(shù)模型 V3:訓(xùn)練成本僅 557 萬(wàn)美元,比 GPT-4 便宜 10 倍

消息一出,Nvidia(英偉達(dá))市值單日蒸發(fā) 1200 億美元,美股 AI 概念股全線暴跌,整個(gè)硅谷為之震動(dòng)。這不僅僅是技術(shù)上的顛覆,更是 AI 競(jìng)爭(zhēng)格局的徹底改寫(xiě)。DeepSeek 證明了 領(lǐng)先 AI 并不一定依賴昂貴的算力,美國(guó)的芯片封鎖政策或許已經(jīng)失效。

這場(chǎng) AI 變局的核心看點(diǎn):

  • 低成本、高效率:DeepSeek 訓(xùn)練 V3 的總算力僅 278.8 萬(wàn) GPU 小時(shí),相比 OpenAI 和 Google 的動(dòng)輒數(shù)十億美元投入,展現(xiàn)出 AI 訓(xùn)練成本大幅下降的可能性。

  • 芯片禁令:DeepSeek 的諸多創(chuàng)新,正是為了克服 H800 相較于 H100 的內(nèi)存帶寬劣勢(shì)。如果 DeepSeek 能夠使用 H100,他們會(huì)選擇更大的訓(xùn)練集群,而不是針對(duì) H800 進(jìn)行如此極致的優(yōu)化。

  • AI 自主進(jìn)化:DeepSeek 的 R1-Zero 依靠純強(qiáng)化學(xué)習(xí)(RL),無(wú)需人工標(biāo)注,就能自己學(xué)會(huì)推理和優(yōu)化答案。

  • 開(kāi)源沖擊波:與 OpenAI 越來(lái)越封閉的策略相反,DeepSeek 選擇開(kāi)放權(quán)重,這一決定或?qū)⒁l(fā) AI 研究范式的重大轉(zhuǎn)變。

這場(chǎng) AI 格局重塑的背后,究竟意味著什么?DeepSeek 的策略如何改變?nèi)蚩萍及鎴D?在這場(chǎng)行業(yè)劇變中,科技分析頂流博客 Stratechery 的創(chuàng)始人 Ben Thompson 再次站在了前沿。

圖片

作為《紐約時(shí)報(bào)》《經(jīng)濟(jì)學(xué)人》的特約撰稿人,Thompson 的深度推演長(zhǎng)期被硅谷高管視為戰(zhàn)略決策的參考。早在 2023 年,他就預(yù)測(cè) “AI 模型商品化將摧毀封閉生態(tài)”,DeepSeek 事件正是這一理論的完美驗(yàn)證。

本篇文章編譯自 Stratechery 最新專欄,全文都以問(wèn)答形式(FAQ)呈現(xiàn),帶你深入解析 DeepSeek 如何打破 AI 競(jìng)爭(zhēng)格局,以及這對(duì)全球科技產(chǎn)業(yè)意味著什么。

圖片

DeepSeek 發(fā)布了什么公告?

最近一次引發(fā)轟動(dòng)的公告是 R1,一個(gè)類似于 OpenAI o1 的推理模型。

然而,導(dǎo)致此次轟動(dòng)的諸多信息——包括 DeepSeek 的訓(xùn)練成本——實(shí)際上是在 V3 公布時(shí)(圣誕節(jié)期間)披露的。

此外,支撐 V3 取得突破的許多技術(shù),實(shí)際上是在去年一月份發(fā)布的 V2 模型時(shí)就已經(jīng)公開(kāi)了。

圖片

帶火了這種模型命名方式,是 OpenAI 犯下的最大“罪行”嗎?

這是第二大的,我們很快會(huì)談到 OpenAI 最大的罪行。

圖片

從前往后看:V2 模型是什么?為什么它如此重要?

DeepSeek-V2 引入了兩個(gè)重要的技術(shù)突破:DeepSeekMoEDeepSeekMLA
DeepSeekMoE 中的 “MoE” 代表 “Mixture of Experts”(專家混合)。像 GPT-3.5 這樣的模型,在訓(xùn)練和推理過(guò)程中會(huì)激活整個(gè)模型;然而,實(shí)際上,并不是所有部分都對(duì)特定任務(wù)必要。MoE 技術(shù)將模型劃分為多個(gè)“專家”,并且只激活必要的部分。例如,GPT-4 就是一個(gè) MoE 模型,據(jù)信包含 16 個(gè)專家,每個(gè)專家大約有 1100 億個(gè)參數(shù)。
DeepSeekMoE 在 V2 中實(shí)現(xiàn)了對(duì)這一概念的重要改進(jìn),包括區(qū)分更精細(xì)的專業(yè)專家,以及具有更廣泛能力的共享專家。更重要的是,DeepSeekMoE 引入了全新的負(fù)載均衡和訓(xùn)練路由方法。傳統(tǒng)的 MoE 訓(xùn)練過(guò)程中,通信開(kāi)銷較大,但推理效率更高;DeepSeek 的方法優(yōu)化了訓(xùn)練過(guò)程,使其更加高效。
DeepSeekMLA 是一個(gè)更大的突破。推理過(guò)程中最大的限制之一是巨大的內(nèi)存需求:不僅需要將整個(gè)模型加載到內(nèi)存中,還需要加載整個(gè)上下文窗口。上下文窗口的存儲(chǔ)成本特別高,因?yàn)槊總€(gè) token 都需要存儲(chǔ)對(duì)應(yīng)的 key-value。
所謂的 MLA,即多頭潛在注意力(multi-head latent attention),使得 key-value 存儲(chǔ)可以被壓縮,從而大幅減少推理時(shí)的內(nèi)存使用。
這些突破的關(guān)鍵影響——以及你需要理解的部分——直到 V3 才真正顯現(xiàn)出來(lái)。
V3 進(jìn)一步優(yōu)化了負(fù)載均衡(進(jìn)一步減少通信開(kāi)銷),并在訓(xùn)練中引入了 多 token 預(yù)測(cè)(使每個(gè)訓(xùn)練步驟更加密集,進(jìn)一步減少開(kāi)銷)。
最終結(jié)果是:V3 的訓(xùn)練成本驚人地低廉
DeepSeek 聲稱,模型訓(xùn)練花費(fèi)了 278.8 萬(wàn) H800 GPU 小時(shí),按照 $2/GPU 小時(shí) 計(jì)算,總成本僅為 $557.6 萬(wàn)美元。
DeepSeek 明確表示,這些成本僅限于最終的訓(xùn)練過(guò)程,不包括所有其他開(kāi)銷。
根據(jù) V3 論文(https:///pdf/2412.19437)
最后,我們?cè)俅螐?qiáng)調(diào),DeepSeek-V3 經(jīng)濟(jì)高效的訓(xùn)練成本是通過(guò)我們對(duì)算法、框架和硬件的優(yōu)化協(xié)同設(shè)計(jì)實(shí)現(xiàn)的。
在預(yù)訓(xùn)練階段,訓(xùn)練 DeepSeek-V3 每萬(wàn)億 token 僅需 18 萬(wàn) H800 GPU 小時(shí),即在我們由 2048 張 H800 GPU 組成的集群上僅需 3.7 天。
因此,我們的預(yù)訓(xùn)練階段在不到兩個(gè)月的時(shí)間內(nèi)完成,總計(jì)耗費(fèi) 266.4 萬(wàn) GPU 小時(shí)。再加上 11.9 萬(wàn) GPU 小時(shí)的上下文長(zhǎng)度擴(kuò)展和 5000 GPU 小時(shí)的后訓(xùn)練,DeepSeek-V3 總訓(xùn)練成本僅為 278.8 萬(wàn) GPU 小時(shí)。
假設(shè) H800 GPU 租賃價(jià)格為 $2/GPU 小時(shí),我們的總訓(xùn)練成本僅為 $557.6 萬(wàn)

需要注意的是,上述成本僅包括 DeepSeek-V3 的正式訓(xùn)練,不包括架構(gòu)、算法或數(shù)據(jù)的前期研究和消融實(shí)驗(yàn)成本。

所以,無(wú)法用 557.6 萬(wàn)美元復(fù)制 DeepSeek 這家公司。
圖片

怎么證實(shí)論文里的那些數(shù)字?

首先,誰(shuí)質(zhì)疑誰(shuí)舉證。尤其是當(dāng)你理解 V3 的架構(gòu)之后,就更不該提出這個(gè)問(wèn)題。
回想一下 DeepSeekMoE 的部分:V3 擁有 6710 億參數(shù),但每個(gè) token 只會(huì)激活 370 億個(gè)參數(shù)的專家,計(jì)算量相當(dāng)于 3333 億 FLOPs(浮點(diǎn)運(yùn)算)/token。
此外,DeepSeek 還采用了一項(xiàng)新的創(chuàng)新:參數(shù)存儲(chǔ)時(shí)采用 BF16 或 FP32 精度,但計(jì)算時(shí)降至 FP8 精度。2048 張 H800 GPU 的總計(jì)算能力為 3.97 exaFLOPs(3.97 百億億 FLOPs)。
所以,訓(xùn)練數(shù)據(jù)集包含 14.8 萬(wàn)億 token,如果進(jìn)行計(jì)算,你會(huì)發(fā)現(xiàn) 278.8 萬(wàn) H800 GPU 小時(shí)確實(shí)足夠訓(xùn)練 V3

當(dāng)然,這只是最終的訓(xùn)練階段,并非所有成本,但這個(gè)數(shù)字是合理的。

圖片

DeepSeek 真的有 5 萬(wàn)張 H100 GPU 嗎?

Scale AI 的 CEO Alexandr Wang 曾表示他們擁有 50,000 張 H100。

*(關(guān)于此人,歡迎回顧《27 歲創(chuàng)始人已經(jīng)給 AI 準(zhǔn)備好「人類最終測(cè)試」!》)

但實(shí)際上,我們不知道 Alexandr Wang 的消息來(lái)源。他可能是參考了 2024 年 11 月 Dylan Patel 的一條推文,該推文聲稱 DeepSeek 擁有超過(guò) 50,000 張 Hopper GPU。

圖片

H800 也是 Hopper 架構(gòu)的 GPU,但由于美國(guó)制裁,H800 的內(nèi)存帶寬遠(yuǎn)低于 H100

關(guān)鍵點(diǎn)在于:DeepSeek 的諸多創(chuàng)新,正是為了克服 H800 相較于 H100 的內(nèi)存帶寬劣勢(shì)。如果你認(rèn)真計(jì)算過(guò) V3 訓(xùn)練過(guò)程,你會(huì)發(fā)現(xiàn) DeepSeek 實(shí)際上擁有過(guò)剩的計(jì)算能力,這是因?yàn)?DeepSeek 專門(mén)在 H800 的 132 個(gè)處理單元中劃分了 20 個(gè)用于管理芯片間通信。

這在 CUDA 中是無(wú)法做到的,因?yàn)?DeepSeek 的工程師必須使用 PTX(Nvidia GPU 的低級(jí)指令集,類似于匯編語(yǔ)言)進(jìn)行優(yōu)化。這種級(jí)別的優(yōu)化只有在必須使用 H800 時(shí)才有意義如果 DeepSeek 能夠使用 H100,他們可能會(huì)選擇更大的訓(xùn)練集群,而不是針對(duì) H800 進(jìn)行如此極致的優(yōu)化。

此外,DeepSeek 還開(kāi)放了模型的推理接口,這意味著他們還需要額外的 GPU 資源來(lái)提供推理服務(wù),遠(yuǎn)不止訓(xùn)練所需的 GPU 數(shù)量。
圖片

這是否違反了美國(guó)的芯片禁令?

沒(méi)有。

H100 被美國(guó)禁令禁止出口到中國(guó),但 H800 沒(méi)有被禁。

很多人認(rèn)為,訓(xùn)練領(lǐng)先的 AI 模型需要更高的芯片間帶寬,但 DeepSeek 正是圍繞 H800 的帶寬限制,優(yōu)化了模型架構(gòu)和訓(xùn)練基礎(chǔ)設(shè)施。

再次強(qiáng)調(diào),DeepSeek 的所有決策,只有在被限制使用 H800 的情況下才有意義。如果他們能用 H100,他們很可能會(huì)采用更大的集群,而不會(huì)費(fèi)力優(yōu)化帶寬問(wèn)題。
圖片

V3 是一款領(lǐng)先的 AI 模型嗎?

是的。

它至少能與 OpenAI 的 GPT-4o 和 Anthropic 的 Claude Sonnet 3.5 競(jìng)爭(zhēng),而且比 Meta Llama 系列現(xiàn)有的最大模型更強(qiáng)。

一個(gè)很有可能的情況是,DeepSeek 通過(guò)蒸餾(distillation)技術(shù),從 GPT-4o 等模型中提取了高質(zhì)量的訓(xùn)練數(shù)據(jù)。
圖片

什么是蒸餾(distillation)?

蒸餾是一種從另一個(gè)模型中提取知識(shí)的方法。

你可以向一個(gè)更強(qiáng)的“教師”模型提供輸入,記錄其輸出,然后用這些數(shù)據(jù)訓(xùn)練“學(xué)生”模型。例如,GPT-4 Turbo 可能是從 GPT-4 通過(guò)蒸餾得到的。對(duì)于 AI 公司來(lái)說(shuō),自己對(duì)自己的模型進(jìn)行蒸餾比較容易,因?yàn)?/span>他們可以完全訪問(wèn)這些模型。

即使沒(méi)有完整的訪問(wèn)權(quán)限,通過(guò) API 甚至聊天客戶端也能進(jìn)行蒸餾。

蒸餾顯然違反了 OpenAI 等公司的使用條款,但唯一能阻止它的辦法就是直接封禁訪問(wèn),比如 IP 封鎖、速率限制等。

行業(yè)內(nèi)普遍認(rèn)為,蒸餾在 AI 訓(xùn)練過(guò)程中非常普遍,這也是為什么越來(lái)越多的模型接近 GPT-4o 的質(zhì)量。

盡管我們無(wú)法確切知道 DeepSeek 是否蒸餾了 GPT-4o 或 Claude,但如果他們沒(méi)有這樣做,反而會(huì)令人驚訝。

*(歡迎回顧《萬(wàn)有引力》欄目對(duì) DeepSeek 優(yōu)化策略的相關(guān)討論:《“純”大模型公司不復(fù)存在、產(chǎn)品經(jīng)理將比程序員更重要?林詠華、黃東旭、李建忠激辯大模型 | 萬(wàn)有引力》)
圖片

蒸餾對(duì)領(lǐng)先的 AI 公司來(lái)說(shuō)是個(gè)壞消息嗎?

對(duì),這是個(gè)壞消息。

但也有正面影響OpenAI、Anthropic、Google 可能都在用蒸餾來(lái)優(yōu)化自己的推理模型,從而降低成本,提高效率。

負(fù)面影響是,他們要承擔(dān)昂貴的訓(xùn)練成本,而其他人可以“免費(fèi)搭車(chē)”。

這可能正是微軟和 OpenAI 關(guān)系漸行漸遠(yuǎn)的核心經(jīng)濟(jì)因素。微軟主要關(guān)心推理服務(wù)(提供 AI 計(jì)算能力),但不太愿意資助 OpenAI 建設(shè) 1000 億美元的數(shù)據(jù)中心來(lái)訓(xùn)練模型

因?yàn)樵谖④浛磥?lái),這些模型很可能在建成之前就已經(jīng)被行業(yè)普遍模仿和復(fù)制了。
圖片

這就是最近科技股股價(jià)下跌的原因嗎?

從長(zhǎng)期來(lái)看,模型的普及化和推理成本降低對(duì)科技巨頭是好事。

  • 微軟可以更低成本地向客戶提供 AI 服務(wù),要么減少數(shù)據(jù)中心投資,要么因 AI 變便宜導(dǎo)致使用量激增。

  • 亞馬遜(AWS)自己沒(méi)能訓(xùn)練出最好的 AI 模型,但如果有高質(zhì)量的開(kāi)源模型,他們可以直接提供推理服務(wù),從而大幅降低成本。

  • 蘋(píng)果也是贏家。推理所需的內(nèi)存大幅降低,使得“邊緣推理”(edge inference)更加可行,而蘋(píng)果芯片(Apple Silicon)正是這方面的佼佼者。

  • Meta(Facebook)可能是最大贏家。他們的 AI 業(yè)務(wù)本來(lái)就很強(qiáng),而推理成本降低將使 AI 在 Meta 的產(chǎn)品中更容易擴(kuò)展。

Google 的處境可能會(huì)更艱難:

  • TPU 的相對(duì)優(yōu)勢(shì)降低了,因?yàn)橛布笙陆盗恕?/span>

  • 如果推理變得“零成本”,那么可能會(huì)出現(xiàn)更多的 AI 應(yīng)用來(lái)取代搜索引擎。

盡管 Google 也能享受更低的成本,但任何改變現(xiàn)狀的事情,通常對(duì) Google 都是負(fù)面的

所以,短期來(lái)看,市場(chǎng)正在消化 R1 的沖擊
圖片

終于可以開(kāi)始講 R1 了嗎?

其實(shí)我花了很多時(shí)間講 V3,是因?yàn)?nbsp;V3 才是實(shí)際體現(xiàn)行業(yè)變革的模型。

R1 是一個(gè)類似于 OpenAI o1 的推理模型。它可以分步驟思考問(wèn)題,從而大幅提高代碼、數(shù)學(xué)、邏輯等領(lǐng)域的準(zhǔn)確性。它的誕生意味著:

1. OpenAI 沒(méi)有護(hù)城河。

2. R1 是一個(gè)開(kāi)源權(quán)重模型,任何人都可以下載并自行運(yùn)行,無(wú)需付費(fèi)給 OpenAI。
圖片

DeepSeek 是怎么訓(xùn)練出 R1 的?

DeepSeek 實(shí)際上訓(xùn)練了兩個(gè)模型:

  • R1

  • R1-Zero

R1-Zero 更值得關(guān)注,因?yàn)樗?strong>一個(gè)完全基于強(qiáng)化學(xué)習(xí)(RL)的推理模型。它沒(méi)有使用任何人工標(biāo)注數(shù)據(jù),而是通過(guò)自我進(jìn)化(self-evolution)學(xué)會(huì)了推理能力。

根據(jù) R1 論文(https:///pdf/2501.12948),R1-Zero 通過(guò) RL 訓(xùn)練后,其數(shù)學(xué)推理能力從 15.6% 提高到 71.0%,如果使用投票機(jī)制,甚至可以達(dá)到 86.7%,與 OpenAI o1-0912 相媲美。

DeepSeek 采用了一種全新的強(qiáng)化學(xué)習(xí)方法 來(lái)訓(xùn)練 R1-Zero。他們沒(méi)有依賴人類反饋(RLHF),而是完全依靠 AI 自己的進(jìn)化(self-evolution)

經(jīng)典強(qiáng)化學(xué)習(xí)的例子是 AlphaGo,DeepMind 僅告訴 AI 圍棋的規(guī)則,并設(shè)置了“獲勝”作為獎(jiǎng)勵(lì)函數(shù),然后 AI 自己摸索出最佳策略。

但 LLM(大語(yǔ)言模型)通常需要 RLHF(人類反饋強(qiáng)化學(xué)習(xí)),因?yàn)槿祟愋枰龑?dǎo)它們做出更自然、連貫的回答。

然而,DeepSeek 完全放棄了人類反饋,直接讓 AI 通過(guò)自我學(xué)習(xí)進(jìn)化:

1. 他們給 R1-Zero 一組數(shù)學(xué)、代碼、邏輯問(wèn)題。

2. 設(shè)置兩個(gè)獎(jiǎng)勵(lì)函數(shù):

    • 答案正確 → 獎(jiǎng)勵(lì)

    • 答案結(jié)構(gòu)合理(具有推理過(guò)程) → 額外獎(jiǎng)勵(lì)

3. AI 自己嘗試不同的解法,并優(yōu)化自己的推理能力。

DeepSeek 發(fā)現(xiàn):R1-Zero 在訓(xùn)練過(guò)程中自然學(xué)會(huì)了推理能力,并且出現(xiàn)了“頓悟時(shí)刻”(Aha Moments)!
圖片

什么是“頓悟時(shí)刻”?

在訓(xùn)練 R1-Zero 的過(guò)程中,研究人員觀察到 AI 自己學(xué)會(huì)了分配更多的時(shí)間思考復(fù)雜問(wèn)題。

  • 會(huì)重新評(píng)估自己的解法,如果發(fā)現(xiàn)思路不對(duì),就會(huì)切換到新的解法

  • 這完全是 AI 自己“領(lǐng)悟”出來(lái)的能力,沒(méi)有人類指導(dǎo)!

DeepSeek 論文這樣描述這一現(xiàn)象:

“頓悟時(shí)刻”發(fā)生在模型的中間訓(xùn)練階段。

在這一階段,DeepSeek-R1-Zero 逐漸學(xué)會(huì)為某些問(wèn)題分配更多的思考時(shí)間,通過(guò)重新評(píng)估初始解法來(lái)尋找更好的答案。

這種現(xiàn)象不僅證明了模型推理能力的成長(zhǎng),也展現(xiàn)了強(qiáng)化學(xué)習(xí)如何帶來(lái)意想不到的復(fù)雜智能行為。

這與 DeepMind 訓(xùn)練 AlphaGo Zero 時(shí)觀察到的現(xiàn)象類似:

  • 一開(kāi)始 AI 只會(huì)使用簡(jiǎn)單的策略,但隨著訓(xùn)練的進(jìn)行,AI 逐漸發(fā)展出復(fù)雜的戰(zhàn)術(shù)。

  • 它們學(xué)會(huì)如何思考,而不是僅僅模仿人類答案。

這也證明了 AI 真的可以靠自己學(xué)會(huì)推理,而不需要人類干預(yù)。
圖片

R1 的實(shí)際表現(xiàn)為什么比 R1-Zero 更強(qiáng)?

雖然 R1-Zero 具備很強(qiáng)的推理能力,但它存在兩個(gè)主要問(wèn)題

1. 答案的可讀性很差(AI 過(guò)于關(guān)注推理,忽略了語(yǔ)言表達(dá))。

2. 存在語(yǔ)言混雜問(wèn)題(部分回答會(huì)夾雜多種語(yǔ)言,不夠一致)。

為了解決這些問(wèn)題,DeepSeek 進(jìn)一步優(yōu)化了 R1:

1. 加入了少量人工標(biāo)注的“冷啟動(dòng)”數(shù)據(jù),讓 AI 學(xué)會(huì)更自然的表達(dá)方式。

2. 引入多階段訓(xùn)練策略:

    • 先用“冷啟動(dòng)”數(shù)據(jù)微調(diào) DeepSeek-V3-Base,讓 AI 學(xué)會(huì)基本的推理表達(dá)。

    • 再進(jìn)行類似 R1-Zero 的強(qiáng)化學(xué)習(xí)訓(xùn)練,進(jìn)一步增強(qiáng)推理能力。

    • 最后,使用 RL 訓(xùn)練生成的新數(shù)據(jù)進(jìn)行監(jiān)督微調(diào)(SFT),確保 AI 的答案既準(zhǔn)確又易讀。

最終,R1 訓(xùn)練出的推理能力,與 OpenAI o1-1217 相當(dāng)!
圖片

這是否意味著 AI 學(xué)會(huì)了自主訓(xùn)練?

答案是肯定的。

DeepSeek 證明了 AI 可以通過(guò)強(qiáng)化學(xué)習(xí),自我進(jìn)化出推理能力。

傳統(tǒng)觀點(diǎn)認(rèn)為,AI 需要人類引導(dǎo)才能學(xué)會(huì)推理。

但 R1-Zero 只需要大量計(jì)算資源和獎(jiǎng)勵(lì)函數(shù),就能自己學(xué)會(huì)推理!

換句話說(shuō),AI 現(xiàn)在可以自己訓(xùn)練自己:

  • AI 生成新的數(shù)據(jù)

  • AI 自己評(píng)估數(shù)據(jù)質(zhì)量

  • AI 通過(guò)強(qiáng)化學(xué)習(xí)提高推理能力

標(biāo)志著 AI 進(jìn)入了一個(gè)新的發(fā)展階段

  • AI 訓(xùn)練不再依賴人類標(biāo)注數(shù)據(jù)

  • AI 可以自己優(yōu)化自己的能力

這意味著,我們正在見(jiàn)證 AI 加速進(jìn)化的拐點(diǎn)。
圖片

這是否意味著 AGI(通用人工智能)即將到來(lái)?

目前,R1 并不是 AGI,但它確實(shí)向 AGI 邁出了重要一步。

DeepSeek 已經(jīng)證明了 AI 可以自己學(xué)習(xí)推理能力,接下來(lái):

  • 如果 AI 也能自己優(yōu)化記憶和知識(shí)整合能力,那 AGI 就真的近在咫尺了!

這就是為什么 OpenAI 和 DeepSeek 競(jìng)賽如此激烈——他們都在向 AGI 邁進(jìn)。
圖片

OpenAI 現(xiàn)在處于劣勢(shì)了嗎?

不一定。

盡管 DeepSeek 在效率上領(lǐng)先,但 OpenAI 仍然擁有更強(qiáng)的整體模型能力:

  • o3(推理模型)比 R1 更強(qiáng)

  • OpenAI 擁有更豐富的訓(xùn)練數(shù)據(jù)

  • 他們有微軟的強(qiáng)大算力支持

不過(guò),DeepSeek 展示的低訓(xùn)練成本和高效推理,已經(jīng)徹底打破了 OpenAI 曾經(jīng)的技術(shù)壁壘。

未來(lái),開(kāi)源 AI 可能會(huì)加速挑戰(zhàn) OpenAI 的主導(dǎo)地位。
圖片

為什么大家對(duì) DeepSeek 這么震驚?

有幾個(gè)主要原因:

1. 中國(guó)的 AI 追趕速度遠(yuǎn)超預(yù)期

許多人以為中國(guó)的軟件實(shí)力比美國(guó)弱,但 DeepSeek 證明中國(guó)可以在 AI 領(lǐng)域達(dá)到世界頂級(jí)水平。

2. DeepSeek 訓(xùn)練成本遠(yuǎn)低于預(yù)期

低成本意味著更多公司可以進(jìn)入 AI 競(jìng)爭(zhēng),OpenAI 的優(yōu)勢(shì)被削弱。

3. DeepSeek 證明了 AI 可以繞開(kāi)美國(guó)芯片禁令

他們?cè)谑芟薜?H800 GPU 上實(shí)現(xiàn)了全球領(lǐng)先的 AI 模型,說(shuō)明美國(guó)的芯片封鎖可能效果有限。
圖片

芯片禁令還重要嗎?

美國(guó)的芯片禁令的確延緩了中國(guó) AI 的發(fā)展,但沒(méi)有阻止它。

相反,DeepSeek 在受限條件下進(jìn)行了極限優(yōu)化,反而創(chuàng)造了更高效的 AI 訓(xùn)練方法。

不僅降低了 AI 訓(xùn)練成本,也讓中國(guó)的 AI 能夠在更弱的硬件上運(yùn)行。

從長(zhǎng)期來(lái)看:

  • 封鎖可能會(huì)促使中國(guó) AI 產(chǎn)業(yè)更加獨(dú)立,開(kāi)發(fā)自己的芯片。

  • 美國(guó)如果不加快創(chuàng)新,而只是依靠封鎖,可能會(huì)失去領(lǐng)先優(yōu)勢(shì)。
圖片

總結(jié):DeepSeek 的意義是什么?

DeepSeek 改變了 AI 競(jìng)爭(zhēng)的游戲規(guī)則:

1. 更低的訓(xùn)練成本 → AI 訓(xùn)練變得更便宜。

2. 更高效的推理 → AI 使用成本大幅下降。

3. AI 自我進(jìn)化能力 → 邁向 AGI 的關(guān)鍵一步。

最終,AI 將變得更加普及,AI 服務(wù)幾乎免費(fèi)。

這將重塑整個(gè)科技行業(yè),并徹底改變?nèi)?AI 競(jìng)爭(zhēng)格局。

參考鏈接:https:///2025/deepseek-faq/

圖片

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多