日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

騰訊AI Lab多篇論文入選CVPR、ACL及ICML等頂級(jí)會(huì)議

 2016xing 2018-04-03

感謝您閱讀騰訊AI Lab首篇文章,我們將在文章第一部分介紹即將開幕的CVPR、ACL和ICML等頂級(jí)AI學(xué)術(shù)會(huì)議,及它們收錄的騰訊AI Lab多篇論文,并選取其中一篇重點(diǎn)解讀。第二部分是公眾號(hào)內(nèi)容簡介及文章預(yù)告,我們將在之后發(fā)布的三篇文章里對(duì)前述三大頂會(huì)的熱門研究方向和優(yōu)秀文章做深度解析。

1、CVPR

IEEE Conference on Computer Vision and Pattern RecognitionIEEE國際計(jì)算機(jī)視覺與模式識(shí)別會(huì)議7月21日 - 26日 | 美國夏威夷

CVPR是近十年來計(jì)算機(jī)視覺領(lǐng)域全球最有影響力、內(nèi)容最全面的頂級(jí)學(xué)術(shù)會(huì)議,由全球最大的非營利性專業(yè)技術(shù)學(xué)會(huì)IEEE(電氣和電子工程師協(xié)會(huì))主辦。2017谷歌學(xué)術(shù)指標(biāo)(Google Scholar)按論文引用率排名, CVPR位列計(jì)算機(jī)視覺領(lǐng)域榜首。今年CVPR審核了2620篇文章,最終收錄783篇,錄取率29%,口頭報(bào)告錄取率僅2.65%。

騰訊AI Lab計(jì)算機(jī)視覺總監(jiān)劉威博士介紹到,「CVPR的口頭報(bào)告一般是當(dāng)年最前沿的研究課題,在學(xué)界和工業(yè)界都影響很大,每年都集齊如斯坦福大學(xué)和谷歌等全球最知名高校和科技公司?!?/p>

騰訊AI Lab六篇論文入選CVPR

論文一:Real Time Neural Style Transfer for Videos本文用深度前向卷積神經(jīng)網(wǎng)絡(luò)探索視頻藝術(shù)風(fēng)格的快速遷移,提出了一種全新兩幀協(xié)同訓(xùn)練機(jī)制,能保持視頻時(shí)域一致性并消除閃爍跳動(dòng)瑕疵,確保視頻風(fēng)格遷移實(shí)時(shí)、高質(zhì)、高效完成。

  • 此論文后附詳細(xì)解析

論文二:WSISA: Making Survival Prediction from Whole Slide Histopathological Images論文首次提出一種全尺寸、無標(biāo)注、基于病理圖片的病人生存有效預(yù)測方法WSISA,在肺癌和腦癌兩類癌癥的三個(gè)不同數(shù)據(jù)庫上性能均超出基于小塊圖像方法,有力支持大數(shù)據(jù)時(shí)代的精準(zhǔn)個(gè)性化醫(yī)療。

論文三:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning針對(duì)圖像描述生成任務(wù),SCA-CNN基于卷積網(wǎng)絡(luò)的多層特征來動(dòng)態(tài)生成文本描述,進(jìn)而建模文本生成過程中空間及通道上的注意力模型。

論文四:Deep Self-Taught Learning for Weakly Supervised Object Localization本文提出依靠檢測器自身不斷改進(jìn)訓(xùn)練樣本質(zhì)量,不斷增強(qiáng)檢測器性能的一種全新方法,破解弱監(jiān)督目標(biāo)檢測問題中訓(xùn)練樣本質(zhì)量低的瓶頸。

論文五:Diverse Image Annotation本文提出了一種新的自動(dòng)圖像標(biāo)注目標(biāo),即用少量多樣性標(biāo)簽表達(dá)盡量多的圖像信息,該目標(biāo)充分利用標(biāo)簽之間的語義關(guān)系,使得自動(dòng)標(biāo)注結(jié)果與人類標(biāo)注更加接近。

論文六:Exploiting Symmetry and/or Manhattan Properties for 3D Object Structure Estimation from Single and Multiple Images基于曼哈頓結(jié)構(gòu)與對(duì)稱信息,文中提出了單張圖像三維重建及多張圖像Structure from Motion三維重建的新方法。

CVPR重點(diǎn)論文解析

CVPR選中的六篇文章,我們將重點(diǎn)解析《視頻的實(shí)時(shí)神經(jīng)風(fēng)格遷移》(Real-Time Neural Style Transfer for Videos)[1]這篇頗具創(chuàng)新的文章。

在過去很長一段時(shí)間內(nèi),業(yè)界流行的圖像濾鏡通常只是對(duì)全局顏色屬性的調(diào)整,比如亮度、色相、飽和度等。在2016年的CVPR,Gatys等人[2]首創(chuàng)性地提出將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像的藝術(shù)風(fēng)格遷移,使得輸入圖像能夠模仿如梵高的星空、莫奈的日出印象等任何類型的藝術(shù)風(fēng)格,效果驚艷。

Gatys等人工作雖然取得了非常好的效果,但是缺點(diǎn)是基于優(yōu)化,非常耗時(shí);到2016 ECCV時(shí),Johnson等人[3]提出了使用深度前向神經(jīng)網(wǎng)絡(luò)替代優(yōu)化過程,實(shí)現(xiàn)了實(shí)時(shí)的圖像風(fēng)格遷移,修圖工具Prisma隨之風(fēng)靡一時(shí)。但直接將圖像風(fēng)格遷移的方法應(yīng)用到視頻上,卻會(huì)使得原本連貫的視頻內(nèi)容在不同幀中轉(zhuǎn)化為不一致的風(fēng)格,造成視頻的閃爍跳動(dòng),嚴(yán)重影響觀感體驗(yàn)。為了解決閃爍問題,Ruder等人[4]加入了對(duì)時(shí)域一致性的考慮,提出了一種基于優(yōu)化的視頻藝術(shù)濾鏡方法,但速度極慢遠(yuǎn)遠(yuǎn)達(dá)不到實(shí)時(shí)。

騰訊AI Lab科學(xué)家使用深度前向卷積神經(jīng)網(wǎng)絡(luò),探索視頻藝術(shù)風(fēng)格快速遷移的可能,提出了一種全新的兩幀協(xié)同訓(xùn)練機(jī)制,保持了視頻時(shí)域一致性,消除了閃爍跳動(dòng)瑕疵,同時(shí)保證視頻風(fēng)格遷移能夠?qū)崟r(shí)完成,兼顧了視頻風(fēng)格轉(zhuǎn)換的高質(zhì)量與高效率。

視頻藝術(shù)濾鏡模型如下圖所示。通過損失網(wǎng)絡(luò)(Loss Network)計(jì)算連續(xù)兩個(gè)輸入視頻幀之間的損失來訓(xùn)練風(fēng)格變換網(wǎng)絡(luò)(Stylizing Network)。其中空間損失(Spatial Loss)同時(shí)描述了圖像的內(nèi)容損失以及風(fēng)格損失;時(shí)間損失(Temporal Loss)描述了兩個(gè)風(fēng)格變換后的視頻幀之間的時(shí)間一致性。

文章相關(guān)論文[1] Haozhi Huang, Hao Wang, Wenhan Luo, Lin Ma, Wenhao Jiang, Xiaolong Zhu, Zhifeng Li, and Wei Liu. Real-Time Neural Style Transfer for Videos. CVPR, 2017.[2] L. A. Gatys, A. S. Ecker, and M. Bethge. Image style transfer using convolutional neural networks. CVPR, 2016.[3] J. Johnson, A. Alahi, and L. Fei-Fei. Perceptual losses for real-time style transfer and super-resolution. ECCV, 2016.[4] M. Ruder, A. Dosovitskiy, and T. Brox. Artistic style transfer for videos. German Conference on Pattern Recognition, 2016.

2、ACL

Meetings of the Association for Computational Linguistics國際計(jì)算機(jī)語言協(xié)會(huì)年會(huì)7月30日 - 8月4日|加拿大溫哥華

騰訊AI Lab副主任語音識(shí)別和深度學(xué)習(xí)專家俞棟博士

ACL是計(jì)算語言學(xué)里最重要的國際會(huì)議,今年是第55屆。會(huì)議涵蓋生物醫(yī)學(xué)、認(rèn)知建模與心理語言學(xué)、交互式對(duì)話系統(tǒng)、機(jī)器翻譯等各個(gè)領(lǐng)域,今年有194 篇長論文、107 篇短論文、21 個(gè)軟件演示及 21 篇主題演講。在2017谷歌學(xué)術(shù)指標(biāo)(Google Scholar)按論文引用率排名, ACL是計(jì)算機(jī)語言學(xué)和自然語言處理領(lǐng)域最高級(jí)別國際學(xué)術(shù)年會(huì)。

騰訊AI Lab副主任俞棟認(rèn)為,「自然語言的理解、表達(dá)、生成和轉(zhuǎn)換一直是自然語言處理的核心問題。近年來有很多新的解決思路和方法。今年的ACL涉及自然語言處理的各方面,尤其在語義解析、語義角色標(biāo)注、基于語義和語法的自然語言生成、機(jī)器翻譯和問答系統(tǒng)方向上都有一些有趣的工作?!?/p>

騰訊AI Lab主任張潼介紹到,「ACL早期利用語法和規(guī)則分析自然語言,90年代后,隨著以LDC(Linguistic Data Consortium)為代表的自然語言數(shù)據(jù)集建立擴(kuò)充,統(tǒng)計(jì)自然語言方法在計(jì)算語言學(xué)里作用越來越大并成為主流。2000年后隨著互聯(lián)網(wǎng)高速發(fā)展及以自然語言為核心的人機(jī)交互方式興起,自然語言研究被賦予極高應(yīng)用價(jià)值?!?/p>

騰訊AI Lab三篇文章入選ACL

論文一:Modeling Source Syntax for Neural Machine Translation本文提出將句法樹轉(zhuǎn)化為句法標(biāo)簽序列的輕量級(jí)方法,有效將源端句法信息引入神經(jīng)網(wǎng)絡(luò)翻譯系統(tǒng),被證實(shí)能顯著提高翻譯效果。

論文二:Chunk-Based Bi-Scale Decoder for Neural Machine Translation本文引入一個(gè)額外組塊神經(jīng)網(wǎng)絡(luò)層,從組塊到詞的層次生成譯文,幫助實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)翻譯系統(tǒng)短語級(jí)別的建模,實(shí)驗(yàn)表明該方法在多種語言上都能顯著提高翻譯效果。

  • 本文作者亦致謝前任職機(jī)構(gòu)

論文三:Deep Pyramid Convolutional Neural Networks for Text Categorization文章提出了一種能有效表達(dá)文本長距離關(guān)系的復(fù)雜度詞粒度CNN。本文研究了如何加深詞粒度CNN對(duì)文本進(jìn)行全局表達(dá),并找到了一種簡單網(wǎng)絡(luò)結(jié)構(gòu),通過增加網(wǎng)絡(luò)深度提升準(zhǔn)確度,但不過多增加計(jì)算量。實(shí)驗(yàn)表明15層的DPCNN在六個(gè)情感和主題分類任務(wù)上達(dá)到了目前最佳結(jié)果。

3、ICML

International Conference on Machine Learning國際機(jī)器學(xué)習(xí)大會(huì)8月6日 - 11日|澳大利亞悉尼

騰訊AI Lab主任機(jī)器學(xué)習(xí)和大數(shù)據(jù)專家張潼博士

機(jī)器學(xué)習(xí)是人工智能的核心技術(shù),而ICML是機(jī)器學(xué)習(xí)最重要的兩個(gè)會(huì)議之一(另一個(gè)是NIPS)。ICML源于1980年在卡內(nèi)基梅隆大學(xué)舉辦的機(jī)器學(xué)習(xí)研討會(huì),現(xiàn)由國際機(jī)器學(xué)習(xí)學(xué)會(huì)(IMLS)主辦。2017谷歌學(xué)術(shù)指標(biāo)以「機(jī)器學(xué)習(xí)」關(guān)鍵詞排名,ICML位列第一。

騰訊AI Lab主任張潼博士介紹到,「很多經(jīng)典論文和算法,如CRF,都是在ICML上首次提出的,這個(gè)會(huì)議涉及機(jī)器學(xué)習(xí)相關(guān)的所有研究,包括近年非常熱門的深度學(xué)習(xí)、優(yōu)化算法、統(tǒng)計(jì)模型和圖模型等。在早期,ICML更注重實(shí)驗(yàn)和應(yīng)用,而NIPS更注重模型和算法,但近年來兩個(gè)會(huì)議有些趨同。」

騰訊AI Lab四篇文章入選ICML

論文一:Scaling Up Sparse Support Vector Machines by Simultaneous Feature and Sample Reduction本文提出了第一個(gè)能在模型訓(xùn)練開始前,同時(shí)檢測和去除稀疏支持向量機(jī)中不活躍樣本和特征的篩選算法,并從理論和實(shí)驗(yàn)中證明其能不損失任何精度地把模型訓(xùn)練效率提升數(shù)個(gè)量級(jí)。

論文二:GSOS: Gauss-Seidel Operator Splitting Algorithm for Multi-Term Nonsmooth Convex Composite Optimization本文提出了求解多塊非光滑復(fù)合凸優(yōu)化問題的算子分裂新算法,該算法采用Gauss-Seidel迭代以及算子分裂的技巧處理不可分的非光滑正則項(xiàng),并以實(shí)驗(yàn)證實(shí)了該算法的有效性。

論文三:Efficient Distributed Learning with Sparsity本文提出了一個(gè)高維大數(shù)據(jù)中能更有效學(xué)習(xí)稀疏線性模型的分布式算法。在單個(gè)機(jī)器訓(xùn)練樣本足夠多時(shí),該算法只需一輪通信就能學(xué)習(xí)出統(tǒng)計(jì)最優(yōu)誤差模型;即使單個(gè)機(jī)器樣本不足,學(xué)習(xí)統(tǒng)計(jì)最優(yōu)誤差模型的通信代價(jià)只隨機(jī)器數(shù)量對(duì)數(shù)曲線上升,而不依賴于其他條件數(shù)。

論文四:Projection-free Distributed Online Learning in Networks本文提出了去中心化的分布式在線條件梯度算法。該算法將條件梯度的免投影特性推廣到分布式在線場景,解決了傳統(tǒng)算法需要復(fù)雜的投影操作問題,能高效處理去中心化的流式數(shù)據(jù)。

此外,我們還受邀參加以下三個(gè)會(huì)議:8月7日-11日東京舉辦的SIGIR(國際計(jì)算機(jī)協(xié)會(huì)信息檢索大會(huì)),入選論文3篇。8月19日-25日墨爾本舉辦的IJCAI(國際人工智能聯(lián)合會(huì)議),入選論文6篇。及9月7日-11日哥本哈根舉辦的EMNLP(自然語言處理實(shí)證方法會(huì)議),入選論文7篇。歡迎現(xiàn)場交流。

關(guān)于騰訊AI Lab微信

騰訊AI Lab于2016年四月成立,專注于機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺、語音識(shí)別和自然語言理解四個(gè)領(lǐng)域「基礎(chǔ)研究」,及內(nèi)容、游戲、社交和平臺(tái)工具型四大AI「應(yīng)用探索」,提升AI的決策、理解及創(chuàng)造力,向「Make AI Everywhere」的愿景邁進(jìn)。

騰訊AI Lab主任及第一負(fù)責(zé)人是機(jī)器學(xué)習(xí)和大數(shù)據(jù)專家張潼博士(詳情可點(diǎn)鏈接),副主任及西雅圖實(shí)驗(yàn)室負(fù)責(zé)人是語音識(shí)別及深度學(xué)習(xí)專家俞棟博士。目前團(tuán)隊(duì)有50余位AI科學(xué)家及200多位應(yīng)用工程師。

一年多以來,我們主要通過行業(yè)會(huì)議及學(xué)術(shù)刊物分享研究成果。今天,我們正式入駐微信,聚焦中國AI前沿「思考」、實(shí)驗(yàn)室「動(dòng)態(tài)」與學(xué)術(shù)產(chǎn)業(yè)「研究」三塊內(nèi)容,用專業(yè)嚴(yán)謹(jǐn)且平實(shí)易懂的語言,希望在更廣范圍內(nèi),連接不同層次的從業(yè)者,以開放、深入和持續(xù)的交流,共同構(gòu)想AI未來。

機(jī)器與機(jī)器間的連接,能讓已知信息隨時(shí)隨地共享。而人與人的連接,則讓未知碰撞,產(chǎn)生更璀璨的智慧火光。讓我們借此火光前行,共創(chuàng)「讓AI無處不在」的未來。

下期內(nèi)容預(yù)告

接下來發(fā)布的三篇文章中,我們將邀請(qǐng)參會(huì)的騰訊AI Lab科學(xué)家,從CVPR、ACL及ICML現(xiàn)場發(fā)回第一手獨(dú)家見聞,深度解析會(huì)議熱門研究方向與優(yōu)質(zhì)文章。敬請(qǐng)關(guān)注!

文章來源:騰訊AI實(shí)驗(yàn)室

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多