日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

讓作者月入2萬的App,免費(fèi)開源了!

 網(wǎng)羅燈下黑 2023-07-17 發(fā)布于河南

在周末這兩天里,我沉迷上了一款堪稱神奇的 AI 應(yīng)用,而且正如標(biāo)題里說的那樣,這個(gè) AI 應(yīng)用曾經(jīng)讓作者月入 2 萬,卻在今天徹底免費(fèi)開源了。

好用、免費(fèi)、開源、安全、高效等等,當(dāng)這些褒義詞匯總到了一款 App 身上,不推薦確實(shí)說不過去。

至于這款工具是干什么的?容我賣個(gè)關(guān)子,讓我們先從熟悉的地方講起——

不知道大家有沒有想過這個(gè)問題,自去年爆火,今年出圈的 AI 繪畫,是怎么能聽懂人話的,更直白點(diǎn)說,它是怎么把文字描述跟圖片本身掛上鉤的呢?

我們不去說那些枯燥技術(shù)上的細(xì)枝末節(jié),但要知道核心功臣是 OpenAI 推出的 CLIP 模型。

簡單說,CLIP 可以把一串文字描述變換成一串?dāng)?shù),也可以把一張圖片變換成一串?dāng)?shù),兩串?dāng)?shù)據(jù)之間的計(jì)算,讓文字和圖片產(chǎn)生了關(guān)聯(lián)。

那反過來說,我有了圖片,能不能根據(jù)文字去精準(zhǔn)查找呢?

緣起于 AI 繪畫,讓一位從事機(jī)器學(xué)習(xí)領(lǐng)域的開發(fā)者接觸到了 CLIP。

這位作者先是在電腦上驗(yàn)證了 CLIP 應(yīng)用于圖片搜索的思路,因?yàn)?/span>搜圖效果遠(yuǎn)好于谷歌,作者有了一個(gè)新想法——

何不把 CLIP 封裝到手機(jī)里?

尋隱/Queryable 自此誕生,在發(fā)布當(dāng)天占領(lǐng)了全部歐洲國家工具榜 TOP 1 ,拿捏了美國工具榜 TOP 2 的好成績。 

尋隱

相信大家或多或少都碰到過這樣的問題,哪怕不是天天拍照,但日積月累下,相冊里的照片總是越堆越多。

手機(jī)自帶的相冊給力也就罷了,但搜索功能總是一言難盡,至少做不到指哪打哪,但,尋隱可以。

PS:感謝朋友提供的素材。。。

iOS 相冊

尋隱

第三方確實(shí)也有做相冊搜索服務(wù)的 App,可問題是少不了向你索要權(quán)限并且聯(lián)網(wǎng),一方面是傳統(tǒng)索引方式需要,另一方面則是好收費(fèi),但,尋隱可以。

是的,尋隱壓根就不要聯(lián)網(wǎng)權(quán)限,模型的應(yīng)用是完全本地化的,何況軟件本身也已經(jīng)開源,隱私安全可以信任。

為了用戶的隱私安全,作者大大可沒少掉頭發(fā),主要原因,出在了 CLIP 模型上——

現(xiàn)在的 AI 繪畫是不支持直接中文輸入的,都是調(diào)用了翻譯工具的 API 變相實(shí)現(xiàn)的中文輸入,但尋隱要這么搞,可就和不聯(lián)網(wǎng)沒關(guān)系了。

開源社區(qū)里不是沒有中文 CLIP 項(xiàng)目,但最小的體積也是 700M+,完整版模型的體積更是按 GB 算的。

而現(xiàn)在的尋隱本身只有 289.3M,不是黑科技,而是作者大大下場自己訓(xùn)練了一個(gè)模型,并因?yàn)榇鎯Ω袷讲煌?,又拿蘋果開發(fā)的 Swift 語言重寫了一遍。


那用這種 AI 工具肯定很慢吧?我最初是這樣想的,但我自己使用起來,真就主打一手快準(zhǔn)狠,按作者的介紹,對 1 萬張圖的單次檢索,耗時(shí)可以不到 1s。

下面就到了具體展示效果的環(huán)節(jié)了。

效果

初次打開尋隱,需要經(jīng)歷這個(gè) App 最耗時(shí)的一個(gè)環(huán)節(jié):為相冊構(gòu)建索引。

給它訪問相冊的權(quán)限后,一次100張,5422 張照片大概花了 1 分鐘左右的時(shí)間,按作者說,最新的 iPhone 可以平均 10000 張/分鐘的速度建立索引。

然后,就沒有然后了,搜就完事了——

你可以搜具體的物件:

可以搜一個(gè)場景下出現(xiàn)的物件,模糊一點(diǎn)也沒關(guān)系:

保存的壁紙也 OK:

描述詞越多,搜索越準(zhǔn)確:

描述詞這里,還能是一個(gè)動(dòng)作:

可以是一種顏色:

甚至是一個(gè)場景:

甚至抽象一點(diǎn)都沒關(guān)系,尋隱很會(huì)給人驚喜。

PS:再次感謝朋友提供的素材。

當(dāng)然,搜索結(jié)果不止一張圖,你的整個(gè)相冊是都做了索引的,尋隱會(huì)根據(jù)相似度,把照片展示到下面:

真的,多試試尋隱,它的搜索表現(xiàn)總是出乎我意料。

當(dāng)然,不敢保證說尋隱 100% 能找到你要的那張圖,只是在測試的兩天里,尋隱的精準(zhǔn)度是真的很強(qiáng)。

而且作者在介紹頁專門有提到,和一切同類應(yīng)用不同,尋隱鼓勵(lì)使用復(fù)雜的長句描述,描述越精準(zhǔn),結(jié)果越可靠。

至于為什么這么說,感興趣的小伙伴可以了解一下 CLIP 模型的工作原理,無論短詞還是長句,尋隱很好用。

結(jié)語

或許你發(fā)現(xiàn)了,上面所有的截圖都是 iPhone,因?yàn)閷る[只上架了 App Store,而且需要 iOS 16 及以上。

原因嘛,作者大大并非 iOS 開發(fā),也不是 Android 開發(fā),只是因?yàn)樽约河玫奶O果手機(jī),加上蘋果官方最先下場驗(yàn)證了 AI 繪畫移植到 iOS 的可能性,這才讓尋隱面世。

不過安卓老哥也別急,畢竟作者開源了尋隱,安卓版尋隱不會(huì)太遠(yuǎn),到時(shí)候有了我會(huì)第一時(shí)間 cue 大家的。

話說回來,這么一款好用、免費(fèi)、開源、安全、高效的工具,誰又能不愛呢?條件合適的小伙伴們快去試試吧。

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多