一、安裝ollama打開ollama網(wǎng)站https:///,下載客戶端 ![]() ![]() 打開下載好的OllamaSetup.exe進行安裝,一直默認安裝即可 ![]() 二、修改ollama模型保存位置和啟動ollama右鍵點擊【此電腦】→【屬性】→【高級系統(tǒng)設置】→【高級】→【環(huán)境變量】→【系統(tǒng)變量】→【新建】→【變量名】OLLAMA_MODELS →【變量值】D:\Ollama\Models(盤符根據(jù)自己的需求修改,硬盤大小盡量在500G以上) ![]() ![]() WIN+R啟動運行,進入CMD,輸入ollama help調(diào)取ollama的各項命令 Large language model runner Usage: ollama [flags] ollama [command] Available Commands: serve Start ollama 開始ollama create Create a model from a Modelfile 從一個Modelfile創(chuàng)建一個模型 show Show information for a model 顯示模型的信息 run Run a model 運行一個模型 stop Stop a running model 停止正在運行的模型 pull Pull a model from a registry 從注冊表中拉取一個模型 push Push a model to a registry 將一個模型推送到注冊表 list List models 列出模型 ps List running models 列出正在運行的模型 cp Copy a model 復制一個模型 rm Remove a model 刪除一個模型 help Help about any command 關于任何命令的幫助 Flags: -h, --help help for ollama -v, --version Show version information Use 'ollama [command] --help' for more information about a command. WIN+R啟動運行,進入CMD,輸入ollama serve啟動 ![]() 三、安裝Page Assist - 本地 AI 模型的 Web UI打開谷歌瀏覽器(Google Chrome)或GPT瀏覽器(官方網(wǎng)站: 本地安裝Page Assist插件( 安裝完成后在菜單中頂置 ![]() ![]() ![]() 四、配置Page Assist - 本地 AI 模型的 Web UI打開Page Assist,選擇設置,進入后對一般設置、RAG模型、ollama設置進行修改,同時可以對管理知識進行添加。 ![]() ![]() ![]() ![]() 五、安裝模型打開ollama網(wǎng)站https:///,進入模型頁面,打開所需的模型頁面后通過Page Assist進行拉取下載。 ![]() 也可以通過Page Assist設置界面中的管理模型中進行拉取模型。 ![]() 除此之外,也可以通過ollma命令拉取模型。如ollama run 六、模型推薦
動態(tài)量化后的模型deepseek-r1 Huzderu/deepseek-r1-671b-1.73bit:latest 08d46664e5ce 168 GB Huzderu/deepseek-r1-671b-2.22bit:latest aff1a536ee6b 196 GB Huzderu/deepseek-r1-671b-2.51bit:latest bf80bdb59818 227 GB SIGJNF/deepseek-r1-671b-1.58bit:latest a2138b47f53d 140 GB DeepSeek-Janus-Pro模型 erwan2/DeepSeek-Janus-Pro-7B:latest e877a212a6a7 4.2 GB 越獄版deepseek-r1 huihui_ai/deepseek-r1-abliterated:7b 9e25a373f069 4.7 GB huihui_ai/deepseek-r1-abliterated:8b f72bcec0a6da 4.9 GB huihui_ai/deepseek-r1-abliterated:14b 6b2209ffd758 9.0 GB huihui_ai/deepseek-r1-abliterated:32b fb53b3296912 19 GB huihui_ai/deepseek-r1-abliterated:70b 50f8d0fe980f 42 GB 嵌入模型(必須) nomic-embed-text:latest 0a109f422b47 274 MB 官方模型deepseek-r1 deepseek-r1:1.5b a42b25d8c10a 1.1 GB deepseek-r1:7b 0a8c26691023 4.7 GB deepseek-r1:8b 28f8fd6cdc67 4.9 GB deepseek-r1:14b ea35dfe18182 9.0 GB deepseek-r1:32b 38056bbcbb2d 19 GB deepseek-r1:70b 0c1615a8ca32 42 GB deepseek-r1:671b 739e1b229ad7 404 GB 七、配置目前我使用的電腦配置如下,跑32B模型很輕松(20tok/s),跑 CPU:13th Gen Intel(R) Core(TM) i5-13400 2.50 GHz 內(nèi)存:2根5代32G內(nèi)存條 保存模型的硬盤:2TB SSD 顯卡:navida 2080ti 22GB 主板:微星 PRO Z790-P DDR5代 八、其他 DeepSeek-R1-671B 的不同量化版本(1.73bit、2.22bit、2.51bit)的主要區(qū)別在于量化精度、模型性能(如推理速度、顯存占用)和模型效果(如準確率)之間的權衡。以下是具體分析: 1.量化位數(shù)與壓縮效率
2.性能與效果的權衡
3.技術實現(xiàn)差異
4.如何選擇?
總結(jié)這些版本的差異本質(zhì)是**“壓縮率 vs 精度”的權衡**。量化通過犧牲少量模型性能來大幅降低資源需求,用戶需根據(jù)自身場景選擇最合適的版本。 5.虛擬內(nèi)存創(chuàng)建
|
|
來自: 金木魚23897029 > 《Deepseek》