寫文獻(xiàn)綜述相關(guān)論文大概率涉及到幾百篇文獻(xiàn),腦子再好,也記不住所有論文的詳細(xì)內(nèi)容啊。 寫一個(gè)點(diǎn),可能就需要在一篇篇論文中翻,可能會(huì)有點(diǎn)慢。 搭建一個(gè)本地知識(shí)庫(kù),輔助寫作可能是個(gè)好辦法。 anything LLM以及RAGFLOW等工具可以融合本地文檔(pdf、word等),這樣就能把幾百篇論文的pdf文件存到知識(shí)庫(kù)中,搭配大模型對(duì)關(guān)鍵字進(jìn)行文本和向量等搜索。 我安裝了anything LLM,錄入了幾篇論文,配合本地的deepseek R1能讓大模型先獲取到論文信息,然后再進(jìn)行回答。 ![]() RAGFLOW我還沒(méi)試,但看介紹可能更加強(qiáng)大,可以錄入Word 文檔、PPT、excel 表格、txt 文件、圖片、PDF、影印件、復(fù)印件、結(jié)構(gòu)化數(shù)據(jù)、網(wǎng)頁(yè)等文件。 ![]() 這樣,寫某個(gè)領(lǐng)域的文獻(xiàn)綜述論文時(shí),需要找什么東西時(shí),就在幾百篇論文的全文知識(shí)庫(kù)中尋找,會(huì)比只看摘要來(lái)寫綜述可能更準(zhǔn)確。 可能有人也在用chatgpt等聯(lián)網(wǎng)功能,但它最多只能看到開(kāi)源期刊的全文又或者是遺漏某個(gè)論文,亦或是加上不相關(guān)的內(nèi)容。 所以我覺(jué)得用本地論文知識(shí)庫(kù)+大模型的方法,可以試一試寫文獻(xiàn)綜述的論文(特別是涉及幾百篇、上千篇論文時(shí)),只是提供一個(gè)思路,我也還沒(méi)驗(yàn)證,可能行得通。 參考: https://github.com/infiniflow/ragflow/blob/main/README_zh.md https://github.com/Mintplex-Labs/anything-llm |
|