LLMs/MLMs之Qwen-3:Qwen3的簡(jiǎn)介、安裝和使用方法、案例應(yīng)用之詳細(xì)攻略 目錄 Qwen3的簡(jiǎn)介2025年4月29日發(fā)布,Qwen3是阿里Qwen團(tuán)隊(duì)開(kāi)發(fā)的一系列大型語(yǔ)言模型,是繼QwQ和Qwen2.5之后最新的成果。該項(xiàng)目已在GitHub上開(kāi)源,提供多種尺寸的密集型和混合專家型(MoE)模型,包括0.6B、1.7B、4B、8B、14B、32B和30B-A3B、235B-A22B等。 Qwen是阿里巴巴集團(tuán)Qwen團(tuán)隊(duì)研發(fā)的大語(yǔ)言模型和大型多模態(tài)模型系列。無(wú)論是語(yǔ)言模型還是多模態(tài)模型,均在大規(guī)模多語(yǔ)言和多模態(tài)數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,并通過(guò)高質(zhì)量數(shù)據(jù)進(jìn)行后期微調(diào)以貼近人類偏好。Qwen具備自然語(yǔ)言理解、文本生成、視覺(jué)理解、音頻理解、工具使用、角色扮演、作為AI Agent進(jìn)行互動(dòng)等多種能力。 Qwen3 提供了豐富的功能和易于使用的接口,為開(kāi)發(fā)者提供了強(qiáng)大的大型語(yǔ)言模型工具。 開(kāi)發(fā)者可以根據(jù)自身需求選擇合適的推理框架和部署方式,并充分發(fā)揮Qwen3的潛力。 官方文章:Qwen3: Think Deeper, Act Faster | Qwen GitHub地址:https://github.com/QwenLM/Qwen3 0、Qwen系列迭代歷史
1、Qwen3 特點(diǎn)>> 多種模型尺寸:提供多種尺寸的密集型和混合專家型(MoE)模型,以滿足不同需求和資源限制。 >> 思維模式切換:能夠在“思考模式”(用于復(fù)雜的邏輯推理、數(shù)學(xué)和編碼)和“非思考模式”(用于高效的通用聊天)之間無(wú)縫切換,以適應(yīng)各種場(chǎng)景。 >> 強(qiáng)大的推理能力:在數(shù)學(xué)、代碼生成和常識(shí)邏輯推理方面顯著增強(qiáng),超越了之前的QwQ(在思考模式下)和Qwen2.5指令模型(在非思考模式下)。 >> 優(yōu)越的人類偏好對(duì)齊:在創(chuàng)意寫(xiě)作、角色扮演、多輪對(duì)話和指令遵循方面表現(xiàn)出色,提供更自然、引人入勝和沉浸式的對(duì)話體驗(yàn)。 >> 強(qiáng)大的Agent能力:能夠在思考模式和非思考模式下精確集成外部工具,并在復(fù)雜的基于Agent的任務(wù)中取得領(lǐng)先的開(kāi)源模型性能。 >> 多語(yǔ)言支持:支持100多種語(yǔ)言和方言,具有強(qiáng)大的多語(yǔ)言指令遵循和翻譯能力。 >> 新的命名方案:與之前的版本不同,Qwen3的后訓(xùn)練模型不再使用“-Instruct”后綴?;A(chǔ)模型的名稱以“-Base”結(jié)尾。 2、評(píng)估結(jié)果更新中…… Qwen3的安裝和使用方法1、安裝1.1、模型下載Hugging Face下載地址:https:///collections/Qwen/qwen3-67dd247413f0e2e4f653967f ModelScope下載地址:https:///collections/Qwen3-9743180bdc6b48 1.2、環(huán)境依賴更新中…… 2、使用方法2.1、模型推理Qwen3 支持多種推理框架和運(yùn)行環(huán)境,包括Transformers、ModelScope、llama.cpp、Ollama、LMStudio、MLX-LM、SGLang、vLLM等。 以下是一些使用方法示例: T1、使用Transformers需要安裝 transformers>=4.51.0。 代碼示例如下: from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Qwen/Qwen3-8B" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto") prompt = "Give me a short introduction to large language models." messages = [{"role": "user", "content": prompt}] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True, enable_thinking=True) # enable_thinking 控制思考模式 model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate(**model_inputs, max_new_tokens=32768) output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist() print(tokenizer.decode(output_ids, skip_special_tokens=True)) enable_thinking 參數(shù)控制是否啟用思考模式,也可以在系統(tǒng)消息或用戶消息中使用/think 和 /nothink 指令來(lái)控制。 T2、使用ModelScope建議中國(guó)大陸用戶使用ModelScope,其Python API與Transformers類似。可以使用 modelscope download 命令下載模型檢查點(diǎn)。 T3、使用llama.cpp需要安裝 llama.cpp>=b5092。 可以使用命令行工具或API服務(wù)器運(yùn)行模型。 命令行示例: ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift T4、使用Ollama安裝Ollama后,可以使用 ollama serve 啟動(dòng)服務(wù),并使用 ollama run qwen3:8b 運(yùn)行模型。 API地址默認(rèn)為 http://localhost:11434/v1/。 T5、使用LMStudioLMStudio 直接支持Qwen3的GGUF文件。 T6、使用MLX-LM (Apple Silicon)mlx-lm>=0.24.0 支持Qwen3。 在HuggingFace Hub上查找以MLX結(jié)尾的模型。 2.2、模型微調(diào)推薦使用訓(xùn)練框架,包括Axolotl、unsloth、Swift、Llama-Factory等,使用 SFT、DPO、GRPO 等微調(diào)模型。 2.3、工具使用對(duì)于工具使用功能,建議您參考Qwen-Agent,它提供了這些 API 的包裝器,以支持使用 MCP 的工具或函數(shù)調(diào)用。Qwen3 的工具使用也可以通過(guò) SGLang、vLLM、Transformers、llama.cpp、Ollama 等進(jìn)行。 相關(guān)地址:https://github.com/QwenLM/Qwen-Agent 3、模型部署T1、SGLang需要 sglang>=0.4.6.post1。 啟動(dòng)命令:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 T2、vLLM需要 vllm>=0.8.4。 啟動(dòng)命令:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning-parser --reasoning-parser deepseek_r1 T3、昇騰NPU在昇騰NPU上部署:請(qǐng)?jiān)L問(wèn)Modelers并搜索Qwen3。 Qwen3的案例應(yīng)用Qwen3在創(chuàng)意寫(xiě)作、角色扮演、多輪對(duì)話、指令遵循、數(shù)學(xué)、代碼生成、常識(shí)邏輯推理、以及與外部工具集成等方面的強(qiáng)大能力。 這些能力可以應(yīng)用于各種場(chǎng)景,例如: >> 聊天機(jī)器人:構(gòu)建具有自然語(yǔ)言理解和生成能力的聊天機(jī)器人。 >> 代碼生成:輔助程序員進(jìn)行代碼編寫(xiě)和調(diào)試。 >> 文本摘要:將長(zhǎng)文本壓縮成簡(jiǎn)潔的摘要。 >> 機(jī)器翻譯:進(jìn)行不同語(yǔ)言之間的翻譯。 >> 問(wèn)答系統(tǒng):回答用戶提出的問(wèn)題。 |
|