首先安裝ollama軟件, 然后打開(kāi)cmd或者powershell命令提示符,然后輸入: ollama run llamafamily/llama3-chinese-8b-instruct 這就在本地電腦安裝了一個(gè)llama3大模型的中文版,然后就可以調(diào)用ollama的api,基于llama3大模型來(lái)開(kāi)發(fā)各種AI應(yīng)用。這個(gè)api調(diào)用的是本地電腦上的大模型服務(wù),所以不會(huì)有任何費(fèi)用;而且不聯(lián)網(wǎng)傳輸,數(shù)據(jù)很安全。 首先安裝ollama的Python庫(kù):pip install ollama 然后在deepseek的代碼助手中輸入提示詞: 你是一個(gè)Python編程專家,現(xiàn)在要完成一個(gè)編寫(xiě)AI應(yīng)用的Python腳本,具體步驟如下: ollama的模型是'llamafamily/llama3-chinese-8b-instruct'; 用ollama庫(kù)輸入內(nèi)容“將以下內(nèi)容翻譯為英文:為什么天是藍(lán)色的?” 解析流式響應(yīng),提取出文本內(nèi)容; ollama庫(kù)的使用示例: import ollama stream = ollama.chat( model='llama3', messages=[{'role': 'user', 'content': 'Why is the sky blue?'}], stream=True, ) ![]() deepseek代碼助手生成的代碼: import ollama # 定義消息列表,包含要翻譯的內(nèi)容 messages = [{'role': 'user', 'content': '將以下內(nèi)容翻譯為英文:為什么天是藍(lán)色的?'}] # 調(diào)用ollama庫(kù)的chat函數(shù),指定模型和消息列表,并開(kāi)啟流式響應(yīng) stream = ollama.chat( model='llamafamily/llama3-chinese-8b-instruct', # 使用你提供的模型名稱 messages=messages, stream=True, # 開(kāi)啟流式響應(yīng) ) # 遍歷流式響應(yīng),提取文本內(nèi)容并輸出 for chunk in stream: # 檢查chunk是否包含'message'字段 if 'message' in chunk: # 提取'content'字段并打印 print(chunk['message']['content'], end='') ![]() 運(yùn)行程序,返回結(jié)果:why is the sky blue? 說(shuō)明程序運(yùn)行成功了。 |
|