今天是我們CLine系列視頻的第二集,主要是講解大家特別關(guān)心的Cline 的免費模型,以及如何配置和使用它們,主要介紹6種我們經(jīng)常使用的方法。 Cline作為一款強大的AI工具,其魅力在于能夠連接多種AI模型,為用戶提供多樣化的智能體驗。 然而,面對眾多模型和潛在的API費用,許多用戶都希望能夠充分利用 免費模型 來滿足日常需求。 ![]() 本文將深入探討如何在 Cline 中配置和使用免費模型,幫助你最大限度地發(fā)揮 Cline 的潛力,而無需擔(dān)心額外的費用。 前言在 Cline 中,免費模型 主要分為3種情況:
我們今天講的方法,包含上面的全部4種類型。 第一種方法:OpenRouter 的免費模型![]() 我們先來看看CLine的模型提供商列表,這里屬于聚合平臺的有OpenRouter、GCP Vertex(谷歌云平臺)、AWS Bedrock(亞馬遜云平臺),它們都是各種模型代理的平臺。 我們以O(shè)penRouter 來講解如何配置使用免費模型。 配置方法: ![]()
![]() 第二種方法:Gemini 的免費模型最近Gemini 官方宣布,Gemini 的免費額度已經(jīng)更新。在低頻次的使用情況下,這是一個不錯的選擇。 ![]() 配置方法: ![]()
第三種方法:Deepseek 的免費模型Deepseek初次注冊會贈送10元,百萬tokens的免費額度。國產(chǎn)大模型的標(biāo)桿模型,支持中文。 配置方法: ![]()
這是我目前使用最多了一個方法。 第四種方法:使用GitHub的開源模型Github提供了許多開源模型( ![]() 配置方法:
![]()
![]()
![]() 第五種方法:使用Huggingface的開源模型Huggingface同樣提供了許多開源模型,包括 Qwen等。并且是全免費的。通過api key進行調(diào)用。 配置方法和Github類似:
![]()
![]()
第六種方法:使用Ollama本地運行的開源模型Ollama 是一個本地運行 LLM 的工具,它允許你使用本地模型,而無需擔(dān)心網(wǎng)絡(luò)連接問題。不過對電腦的性能要求高,需要有GPU的支持。 ![]() 1. 下載并安裝 Ollama 訪問 Ollama 官網(wǎng)https:///下載對應(yīng)操作系統(tǒng)的版本并安裝。按提示進行操作就可以了。 2. 下載模型:
![]() 3. 在 Cline 中配置本地模型服務(wù):
![]()
使用免費模型的注意事項 |
|