在周末這兩天里,我沉迷上了一款堪稱神奇的 AI 應(yīng)用,而且正如標(biāo)題里說的那樣,這個(gè) AI 應(yīng)用曾經(jīng)讓作者月入 2 萬,卻在今天徹底免費(fèi)開源了。 好用、免費(fèi)、開源、安全、高效等等,當(dāng)這些褒義詞匯總到了一款 App 身上,不推薦確實(shí)說不過去。 至于這款工具是干什么的?容我賣個(gè)關(guān)子,讓我們先從熟悉的地方講起—— 不知道大家有沒有想過這個(gè)問題,自去年爆火,今年出圈的 AI 繪畫,是怎么能聽懂人話的,更直白點(diǎn)說,它是怎么把文字描述跟圖片本身掛上鉤的呢? 我們不去說那些枯燥技術(shù)上的細(xì)枝末節(jié),但要知道核心功臣是 OpenAI 推出的 CLIP 模型。 簡單說,CLIP 可以把一串文字描述變換成一串?dāng)?shù),也可以把一張圖片變換成一串?dāng)?shù),兩串?dāng)?shù)據(jù)之間的計(jì)算,讓文字和圖片產(chǎn)生了關(guān)聯(lián)。 那反過來說,我有了圖片,能不能根據(jù)文字去精準(zhǔn)查找呢? 緣起于 AI 繪畫,讓一位從事機(jī)器學(xué)習(xí)領(lǐng)域的開發(fā)者接觸到了 CLIP。 這位作者先是在電腦上驗(yàn)證了 CLIP 應(yīng)用于圖片搜索的思路,因?yàn)?/span>搜圖效果遠(yuǎn)好于谷歌,作者有了一個(gè)新想法—— 何不把 CLIP 封裝到手機(jī)里? 尋隱/Queryable 自此誕生,在發(fā)布當(dāng)天占領(lǐng)了全部歐洲國家工具榜 TOP 1 ,拿捏了美國工具榜 TOP 2 的好成績。 尋隱 相信大家或多或少都碰到過這樣的問題,哪怕不是天天拍照,但日積月累下,相冊里的照片總是越堆越多。 手機(jī)自帶的相冊給力也就罷了,但搜索功能總是一言難盡,至少做不到指哪打哪,但,尋隱可以。 PS:感謝朋友提供的素材。。。
第三方確實(shí)也有做相冊搜索服務(wù)的 App,可問題是少不了向你索要權(quán)限并且聯(lián)網(wǎng),一方面是傳統(tǒng)索引方式需要,另一方面則是好收費(fèi),但,尋隱可以。 是的,尋隱壓根就不要聯(lián)網(wǎng)權(quán)限,模型的應(yīng)用是完全本地化的,何況軟件本身也已經(jīng)開源,隱私安全可以信任。 為了用戶的隱私安全,作者大大可沒少掉頭發(fā),主要原因,出在了 CLIP 模型上—— 現(xiàn)在的 AI 繪畫是不支持直接中文輸入的,都是調(diào)用了翻譯工具的 API 變相實(shí)現(xiàn)的中文輸入,但尋隱要這么搞,可就和不聯(lián)網(wǎng)沒關(guān)系了。 開源社區(qū)里不是沒有中文 CLIP 項(xiàng)目,但最小的體積也是 700M+,完整版模型的體積更是按 GB 算的。 而現(xiàn)在的尋隱本身只有 289.3M,不是黑科技,而是作者大大下場自己訓(xùn)練了一個(gè)模型,并因?yàn)榇鎯Ω袷讲煌?,又拿蘋果開發(fā)的 Swift 語言重寫了一遍。 那用這種 AI 工具肯定很慢吧?我最初是這樣想的,但我自己使用起來,真就主打一手快準(zhǔn)狠,按作者的介紹,對 1 萬張圖的單次檢索,耗時(shí)可以不到 1s。 下面就到了具體展示效果的環(huán)節(jié)了。 效果 初次打開尋隱,需要經(jīng)歷這個(gè) App 最耗時(shí)的一個(gè)環(huán)節(jié):為相冊構(gòu)建索引。 給它訪問相冊的權(quán)限后,一次100張,5422 張照片大概花了 1 分鐘左右的時(shí)間,按作者說,最新的 iPhone 可以平均 10000 張/分鐘的速度建立索引。 然后,就沒有然后了,搜就完事了—— 你可以搜具體的物件: 可以搜一個(gè)場景下出現(xiàn)的物件,模糊一點(diǎn)也沒關(guān)系: 保存的壁紙也 OK: 描述詞越多,搜索越準(zhǔn)確: 描述詞這里,還能是一個(gè)動(dòng)作: 可以是一種顏色: 甚至是一個(gè)場景: 甚至抽象一點(diǎn)都沒關(guān)系,尋隱很會(huì)給人驚喜。 PS:再次感謝朋友提供的素材。 當(dāng)然,搜索結(jié)果不止一張圖,你的整個(gè)相冊是都做了索引的,尋隱會(huì)根據(jù)相似度,把照片展示到下面: 真的,多試試尋隱,它的搜索表現(xiàn)總是出乎我意料。 當(dāng)然,不敢保證說尋隱 100% 能找到你要的那張圖,只是在測試的兩天里,尋隱的精準(zhǔn)度是真的很強(qiáng)。 而且作者在介紹頁專門有提到,和一切同類應(yīng)用不同,尋隱鼓勵(lì)使用復(fù)雜的長句描述,描述越精準(zhǔn),結(jié)果越可靠。 至于為什么這么說,感興趣的小伙伴可以了解一下 CLIP 模型的工作原理,無論短詞還是長句,尋隱很好用。 結(jié)語 或許你發(fā)現(xiàn)了,上面所有的截圖都是 iPhone,因?yàn)閷る[只上架了 App Store,而且需要 iOS 16 及以上。 原因嘛,作者大大并非 iOS 開發(fā),也不是 Android 開發(fā),只是因?yàn)樽约河玫奶O果手機(jī),加上蘋果官方最先下場驗(yàn)證了 AI 繪畫移植到 iOS 的可能性,這才讓尋隱面世。 不過安卓老哥也別急,畢竟作者開源了尋隱,安卓版尋隱不會(huì)太遠(yuǎn),到時(shí)候有了我會(huì)第一時(shí)間 cue 大家的。 話說回來,這么一款好用、免費(fèi)、開源、安全、高效的工具,誰又能不愛呢?條件合適的小伙伴們快去試試吧。 |
|