在數(shù)字化時(shí)代,人工智能(AI)正以前所未有的速度改變著我們的工作和學(xué)習(xí)方式。然而,對(duì)于許多用戶來(lái)說,AI技術(shù)的使用仍然存在諸多門檻。排隊(duì)等待、復(fù)雜的云部署、高昂的成本……這些都讓AI的普及之路顯得有些艱難。但現(xiàn)在,這一切正在悄然改變。騰訊旗下的智能工作臺(tái) ima.copilot(簡(jiǎn)稱 ima)通過接入 DeepSeek-R1 模型,為用戶帶來(lái)了一種全新的、免費(fèi)且強(qiáng)大的AI體驗(yàn)。 一、ima:智能工作臺(tái)的全新升級(jí)ima.copilot 是騰訊于2024年10月推出的一款以知識(shí)庫(kù)為核心的AI智能工作臺(tái)。它集搜索、閱讀、寫作功能于一體,旨在幫助用戶提升日常學(xué)習(xí)和工作的效率。該平臺(tái)能夠輔助用戶完成各種任務(wù),并將積累的內(nèi)容長(zhǎng)期沉淀為個(gè)人智能化的知識(shí)庫(kù)。此外,ima還支持將知識(shí)庫(kù)進(jìn)行分享,方便團(tuán)隊(duì)協(xié)作和知識(shí)共享。 此次技術(shù)升級(jí)后,用戶將 ima 更新至最新版本,就可以在使用搜索、閱讀、寫作和知識(shí)庫(kù)管理等功能時(shí),自由選擇騰訊混元大模型或 DeepSeek-R1 模型。這種靈活的選擇機(jī)制讓用戶能夠根據(jù)自己的需求和偏好,獲得更豐富的使用體驗(yàn)。 二、DeepSeek-R1:技術(shù)突破與強(qiáng)大性能DeepSeek-R1 是一個(gè)備受矚目的AI研究項(xiàng)目,其在技術(shù)突破和應(yīng)用場(chǎng)景方面都取得了顯著進(jìn)展。以下是其關(guān)鍵技術(shù)和應(yīng)用領(lǐng)域的亮點(diǎn): (一)計(jì)算最優(yōu)的Test-Time Scaling (TTS)TTS是一種優(yōu)化技術(shù),旨在通過動(dòng)態(tài)調(diào)整模型的計(jì)算資源,提升其在特定任務(wù)上的表現(xiàn)。上海AI Lab的周伯文團(tuán)隊(duì)在這一領(lǐng)域取得了重要突破。他們發(fā)現(xiàn),TTS在某些數(shù)學(xué)任務(wù)上優(yōu)于傳統(tǒng)的長(zhǎng)CoT(Chain of Thought)方法。例如,在MATH-500和AIME2024等數(shù)學(xué)競(jìng)賽中,TTS方法展現(xiàn)出了顯著的優(yōu)勢(shì)。具體而言,7B參數(shù)的 DeepSeek-R1-Distill-Qwen 反超了671B參數(shù)的R1滿血版,甚至0.5B模型在某些任務(wù)上超越了GPT-4o。 然而,TTS在更復(fù)雜的任務(wù)上仍有提升空間。例如,在AIME24等高難度數(shù)學(xué)競(jìng)賽中,TTS的性能尚未達(dá)到理想水平。研究團(tuán)隊(duì)指出,進(jìn)一步優(yōu)化監(jiān)督機(jī)制將是未來(lái)提升TTS性能的關(guān)鍵方向。 (二)強(qiáng)化學(xué)習(xí)與知識(shí)蒸餾結(jié)合強(qiáng)化學(xué)習(xí)(Reinforcement Learning,RL)和知識(shí)蒸餾(Knowledge Distillation)是AI領(lǐng)域中的兩種重要技術(shù)。UC伯克利團(tuán)隊(duì)將這兩種技術(shù)相結(jié)合,對(duì)1.5B參數(shù)的 DeepScaleR-1.5B-Preview 模型進(jìn)行了微調(diào)。結(jié)果顯示,僅用4500美元的成本,該模型在AIME2024競(jìng)賽中的表現(xiàn)就超越了o1-preview。 這種技術(shù)結(jié)合的核心在于“先短后長(zhǎng)”的訓(xùn)練策略。團(tuán)隊(duì)首先在較短的上下文長(zhǎng)度(8K)上訓(xùn)練模型,隨后逐步擴(kuò)展到更長(zhǎng)的上下文長(zhǎng)度(24K)。通過這種方式,模型不僅能夠更好地適應(yīng)復(fù)雜的任務(wù),還能在推理過程中展現(xiàn)出更強(qiáng)的能力。此外,知識(shí)蒸餾技術(shù)的引入進(jìn)一步提升了模型的效率和性能。 (三)本地化推理與成本優(yōu)化本地化推理是AI技術(shù)普及的關(guān)鍵一步。清華大學(xué)KVCache.AI團(tuán)隊(duì)通過 KTransformers 開源項(xiàng)目,成功實(shí)現(xiàn)了在本地設(shè)備上運(yùn)行 DeepSeek-R1 的能力。這一項(xiàng)目通過優(yōu)化顯存使用和計(jì)算效率,使得即使在低配置硬件上,也能進(jìn)行高效的推理。 具體而言,KTransformers項(xiàng)目采用了基于計(jì)算強(qiáng)度的offload策略、MLA算子優(yōu)化以及MoE(Mixture of Experts)稀疏性利用等技術(shù)。這些優(yōu)化手段使得 DeepSeek-R1 滿血版(671B MoE架構(gòu))能夠在24G顯存的4090顯卡上運(yùn)行,預(yù)處理速度達(dá)到286 tokens/s,推理速度為14 tokens/s。 與此同時(shí),Unsloth AI項(xiàng)目通過GRPO(Gradient-based Progressive Optimization)訓(xùn)練方法,大幅降低了 DeepSeek-R1 推理的內(nèi)存需求。經(jīng)過優(yōu)化后,僅需7GB VRAM即可在本地運(yùn)行推理模型(如Qwen2.5 1.5B),極大地降低了使用門檻。這一進(jìn)展使得更多研究者和開發(fā)者能夠在本地設(shè)備上進(jìn)行實(shí)驗(yàn),推動(dòng)了AI技術(shù)的廣泛應(yīng)用。 三、ima多平臺(tái)支持與高效工作體驗(yàn)ima.copilot 的一大亮點(diǎn)是其多平臺(tái)支持的設(shè)計(jì)。目前,該平臺(tái)已上線Windows端、Mac端,并推出了“ima知識(shí)庫(kù)”微信小程序。用戶可以通過訪問 ima 官網(wǎng)下載使用,也可以通過微信搜索“ima知識(shí)庫(kù)”小程序,體驗(yàn)全網(wǎng)搜索和知識(shí)庫(kù)問答。 例如,當(dāng)你在瀏覽微信公眾號(hào)上的文章時(shí),可以輕松地將其導(dǎo)入小程序的知識(shí)庫(kù)。隨后,你可以在小程序中提出問題, ima 會(huì)立即調(diào)用混元大模型或 DeepSeek-R1 為你提供答案。這種無(wú)縫銜接的體驗(yàn),不僅節(jié)省了時(shí)間,還提升了工作效率。 四、如何快速在ima.copilot上使用DeepSeek-R1模型(一)更新ima至最新版本
(二)切換至DeepSeek-R1模型
(三)使用DeepSeek-R1模型的功能
五、免費(fèi)體驗(yàn),開啟智能工作之旅此次 ima.copilot 接入 DeepSeek-R1,不僅為用戶帶來(lái)了更強(qiáng)大的AI能力,還完全免費(fèi)開放。無(wú)論你是學(xué)生、研究人員還是職場(chǎng)人士,都可以通過 ima.copilot 體驗(yàn)到前沿的AI技術(shù),提升工作和學(xué)習(xí)效率。 六、未來(lái)展望 隨著技術(shù)的不斷進(jìn)步,ima和 DeepSeek-R1 將持續(xù)優(yōu)化和升級(jí)。未來(lái),它們可能會(huì)進(jìn)一步整合更多功能,如多模態(tài)推理、跨領(lǐng)域應(yīng)用等,為用戶提供更全面的智能支持。 騰訊智能工作臺(tái) ima的此次升級(jí),為用戶帶來(lái)了免費(fèi)且強(qiáng)大的AI體驗(yàn)。如果你還在為繁瑣的工作任務(wù)或復(fù)雜的寫作需求而煩惱,不妨試試 ima,開啟你的智能工作之旅。 純個(gè)人經(jīng)驗(yàn),如有幫助,請(qǐng)收藏點(diǎn)贊,如需轉(zhuǎn)載,請(qǐng)注明出處。 |
|
來(lái)自: 北漂小達(dá)憶拾光 > 《科技日?!?/a>