日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

MIT高贊深度學(xué)習(xí)教程:一文看懂CNN、RNN等7種范例(TensorFlow教程)

 taotao_2016 2019-02-07

新智元2019新年寄語



2018年人工智能成為重塑世界格局的關(guān)鍵。谷歌BERT模型刷新多項(xiàng)自然語言處理紀(jì)錄,DeepMind則用星際爭霸II對局再次引爆機(jī)器智能無限可能。阿里與華為分別推出AI芯片,作為底層支撐的計(jì)算體系結(jié)構(gòu)也將邁入黃金十年發(fā)展期。


新智元2018年實(shí)現(xiàn)全球超過50萬核心產(chǎn)業(yè)用戶互聯(lián)。2019新春,中國人工智能將迎來全新的競爭挑戰(zhàn)與生態(tài)建設(shè)契機(jī),新智元邀你與全球人工智能學(xué)術(shù)、產(chǎn)業(yè)精英一起,以開放的胸懷和堅(jiān)毅的決心,成就AI新世界!


——新智元創(chuàng)始人兼CEO  楊靜




  新智元報(bào)道  

來源:medium

作者:Lex Fridman  編輯:肖琴

【新智元導(dǎo)讀】作為MIT的深度學(xué)習(xí)基礎(chǔ)系列課程的一部分,本文概述了7種架構(gòu)范例的深度學(xué)習(xí),每個(gè)范例都提供了TensorFlow教程的鏈接。


我們不久前介紹了 MIT 的深度學(xué)習(xí)基礎(chǔ)系列課程,由 MIT 學(xué)術(shù)研究員 Lex Fridman 開講,將介紹使用神經(jīng)網(wǎng)絡(luò)解決計(jì)算機(jī)視覺、自然語言處理、游戲、自動駕駛、機(jī)器人等領(lǐng)域問題的基礎(chǔ)知識。


更多閱讀:

【免費(fèi)資源】MIT《深度學(xué)習(xí)基礎(chǔ)》第一課 68 分鐘視頻 + 69 頁 PPT


作為講座的一部分,Lex Fridman 撰文概述了 7 種架構(gòu)范例的深度學(xué)習(xí),每個(gè)范例都提供了 TensorFlow 教程的鏈接。以下是麻省理工學(xué)院課程 6.S094 的深度學(xué)習(xí)基礎(chǔ)課程第一課的視頻:




深度學(xué)習(xí)是表示學(xué)習(xí) (representation learning):從數(shù)據(jù)中自動形成有用的表示。我們?nèi)绾伪硎臼澜?,可以讓?fù)雜的東西對我們?nèi)祟惡臀覀儤?gòu)建的機(jī)器學(xué)習(xí)模型來說都顯得更簡單。


對于前者,我最喜歡的例子是哥白尼于 1543 年發(fā)表的日心說,日心說認(rèn)為太陽是宇宙的中心,完全推翻了之前把地球放在中心的地心說。在最好的情況下,深度學(xué)習(xí)可以讓我們自動完成這一步,從 “特征工程” 過程中去掉哥白尼 (即,去掉人類專家)。


日心說 (1543) vs 地心說 (6th century BC)


在高級別上,神經(jīng)網(wǎng)絡(luò)可以是編碼器,可以是解碼器,也可以是兩者的組合

編碼器在原始數(shù)據(jù)中找到模式,以形成緊湊、有用的表示 (representations)。

解碼器從這些表示中生成高分辨率數(shù)據(jù)。生成的數(shù)據(jù)可以是新的示例,也可以是描述性知識。


其余的則是一些聰明的方法,可以幫助我們有效地處理視覺信息、語言、音頻 (第 1–6項(xiàng)),甚至可以在一個(gè)基于這些信息和偶爾的獎勵的世界中采取行動 (第 7 項(xiàng))。下面是一個(gè)總體的圖示:



在下面的部分中,我將簡要描述這 7 種架構(gòu)范例,并提供每個(gè)范例的演示性TensorFlow 教程的鏈接。請參閱最后的 “基礎(chǔ)拓展” 部分,該部分討論了深度學(xué)習(xí)的一些令人興奮的領(lǐng)域,不完全屬于這七個(gè)類別。


TensorFlow 教程地址:

https://github.com/lexfridman/mit-deep-learning/blob/master/tutorial_deep_learning_basics/deep_learning_basics.ipynb


1. 前饋神經(jīng)網(wǎng)絡(luò) (FFNNs)



前饋神經(jīng)網(wǎng)絡(luò) (Feed Forward Neural Networks, FFNNs) 的歷史可以追溯到 20 世紀(jì) 40年代,這是一種沒有任何循環(huán)的網(wǎng)絡(luò)。數(shù)據(jù)以單次傳遞的方式從輸入傳遞到輸出,而沒有任何以前的 “狀態(tài)記憶”。從技術(shù)上講,深度學(xué)習(xí)中的大多數(shù)網(wǎng)絡(luò)都可以被認(rèn)為是FFNNs,但通常 “FFNN” 指的是其最簡單的變體:密集連接的多層感知器 (MLP)。


密集編碼器用于將輸入上已經(jīng)很緊湊的一組數(shù)字映射到預(yù)測:分類 (離散) 或回歸 (連續(xù))


TensorFlow 教程:請參閱我們的深度學(xué)習(xí)基礎(chǔ)教程的第 1 部分,其中有一個(gè)用于波士頓房價(jià)預(yù)測的 FFNNs 示例,它是一個(gè)回歸問題:


網(wǎng)絡(luò)學(xué)習(xí)時(shí)在訓(xùn)練集和驗(yàn)證集上的誤差


2. 卷積神經(jīng)網(wǎng)絡(luò) (CNN)



CNN(又名 ConvNets) 是一種前饋神經(jīng)網(wǎng)絡(luò),它使用一種空間不變性技巧來有效地學(xué)習(xí)圖像中的局部模式,這種方法在圖像中最為常見。空間不變性 (Spatial-invariance ) 是指,比如說,一張貓臉的圖像上,左上角的貓耳與圖像右下角的貓耳具有相同的特征。CNN 跨空間共享權(quán)重,使貓耳以及其他模式的檢測更加高效。


CNN 不是只使用密集連接的層,而是使用卷積層 (卷積編碼器)。這些網(wǎng)絡(luò)用于圖像分類、目標(biāo)檢測、視頻動作識別以及任何在結(jié)構(gòu)上具有一定空間不變性的數(shù)據(jù) (如語音音頻)。


TensorFlow 教程:請參閱我們的深度學(xué)習(xí)基礎(chǔ)教程的第 2 部分,了解用于對 MNIST 數(shù)據(jù)集中的手寫數(shù)字進(jìn)行分類的一個(gè) CNN 示例。


分類預(yù)測 (右),生成的手寫數(shù)字 (左)。


3. 循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN)



RNN 是具有循環(huán)的網(wǎng)絡(luò),因此具有 “狀態(tài)記憶”。它們可以及時(shí)展開,成為權(quán)重共享的前饋網(wǎng)絡(luò)。正如 CNN 在 “空間” 上共享權(quán)重一樣,RNN 在 “時(shí)間” 上共享權(quán)重。這使得它們能夠處理并有效地表示序列數(shù)據(jù)中的模式。


RNN 模塊有許多變體,包括 LSTM 和 GRU,以幫助學(xué)習(xí)更長的序列中的模式。它的應(yīng)用包括自然語言建模、語音識別、語音生成等。


TensorFlow 教程:訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)是很有挑戰(zhàn)性的,但同時(shí)也允許我們對序列數(shù)據(jù)進(jìn)行一些有趣而強(qiáng)大的建模。使用 TensorFlow 生成文本的教程是我最喜歡的教程之一,因?yàn)樗煤苌俚膸仔写a就完成了一些了不起的事情:在字符基礎(chǔ)上生成合理的文本:


使用 TensorFlow 生產(chǎn)文本


使用 TensorFlow 生產(chǎn)文本教程:

https://www./tutorials/sequences/text_generation


4. Encoder-Decoder 架構(gòu)



前 3 節(jié)中介紹的 FFNN、CNN 和 RNN 都只是分別使用密集編碼器、卷積編碼器或循環(huán)編碼器進(jìn)行預(yù)測的網(wǎng)絡(luò)。這些編碼器可以組合或切換,取決于我們試圖形成有用表示的原始數(shù)據(jù)類型?!癊ncoder-Decoder” 架構(gòu)是一種更高級的概念,通過對壓縮表示進(jìn)行上采樣的解碼步驟來生成高維輸出,而不是進(jìn)行預(yù)測。


請注意,編碼器和解碼器可以彼此非常不同。例如, image captioning 網(wǎng)絡(luò)可能有卷積編碼器 (用于圖像輸入) 和循環(huán)解碼器 (用于自然語言輸出)。Encoder-Decoder 架構(gòu)的應(yīng)用包括語義分割、機(jī)器翻譯等。


TensorFlow 教程:請參閱駕駛場景分割的教程,該教程演示了針對自主車輛感知問題的最先進(jìn)的分割網(wǎng)絡(luò):


使用 TensorFlow 的駕駛場景分割


地址:

https://github.com/lexfridman/mit-deep-learning/blob/master/tutorial_driving_scene_segmentation/tutorial_driving_scene_segmentation.ipynb


5. 自動編碼器 (Autoencoder)



自動編碼器 (Autoencoder) 是一種采用 encoder-decoder 架構(gòu)的更簡單的 “無監(jiān)督學(xué)習(xí)” 形式,并學(xué)習(xí)生成輸入數(shù)據(jù)的精確副本。由于編碼的表示比輸入數(shù)據(jù)小得多,網(wǎng)絡(luò)被迫學(xué)習(xí)如何形成最有意義的表示。


由于 ground truth 數(shù)據(jù)來自輸入數(shù)據(jù),所以不需要人工操作。換句話說,它是自我監(jiān)督的。自動編碼器的應(yīng)用包括無監(jiān)督嵌入、圖像去噪等。最重要的是,它的 “表示學(xué)習(xí)” 的基本思想是下一節(jié)的生成模型和所有深度學(xué)習(xí)的核心。


TensorFlow 教程:在這個(gè) TensorFlow Keras 教程中,你可以探索自動編碼器對 (1) 輸入數(shù)據(jù)去噪和 (2) 在 MNIST 數(shù)據(jù)集進(jìn)行嵌入的能力。


地址:

https://www./vikramtiwari/autoencoders-using-tf-keras-mnist


6. 生成對抗網(wǎng)絡(luò) (GAN)



GAN 是一種用于訓(xùn)練網(wǎng)絡(luò)的框架,GAN 網(wǎng)絡(luò)經(jīng)過優(yōu)化,可以從特定的表示中生成新的逼真樣本。最簡單的形式是,訓(xùn)練過程涉及兩個(gè)網(wǎng)絡(luò)。其中一個(gè)網(wǎng)絡(luò)稱為生成器(generator),它生成新的數(shù)據(jù)實(shí)例,試圖欺騙另一個(gè)網(wǎng)絡(luò),即鑒別器 (discriminator),后者將圖像分類為真實(shí)圖像和假圖像。


在過去的幾年里,GAN 出現(xiàn)了許多變體和改進(jìn),包括從特定類別生成圖像的能力、從一個(gè)域映射到另一個(gè)域的能力,以及生成圖像的真實(shí)性的驚人提高。例如,BigGAN (https:///abs/1809.11096) 從單一類別 (毒蠅傘) 中生成的三個(gè)樣本:


BigGAN 生成的圖像



TensorFlow 教程:有關(guān) GAN 變體的示例,請參閱關(guān)于 conditional GAN 和 DCGAN 的教程。隨著課程的進(jìn)展,我們將在 GitHub 上發(fā)布一個(gè)關(guān)于 GAN 的最新教程。


conditional GAN:

https://github.com/tensorflow/tensorflow/blob/r1.13/tensorflow/contrib/eager/python/examples/pix2pix/pix2pix_eager.ipynb


DCGAN:

https://github.com/tensorflow/tensorflow/blob/r1.11/tensorflow/contrib/eager/python/examples/generative_examples/dcgan.ipynb


7. 深度強(qiáng)化學(xué)習(xí) (Deep RL)



強(qiáng)化學(xué)習(xí) (RL) 是一個(gè)框架,用于教一個(gè) agent 如何以一種最大化回報(bào)的方式行動。當(dāng)學(xué)習(xí)由神經(jīng)網(wǎng)絡(luò)完成時(shí),我們稱之為深度強(qiáng)化學(xué)習(xí) (Deep Reinforcement learning, Deep RL)。


RL 框架有三種類型:基于策略的 (policy-based)、基于價(jià)值 (value-based) 的和基于模型的 (model-based)。區(qū)別在于神經(jīng)網(wǎng)絡(luò)的任務(wù)是學(xué)習(xí)。詳細(xì)解讀請參見本系列課程的第 6 講。


Deep RL 允許我們在需要做出一系列決策時(shí),在模擬或現(xiàn)實(shí)環(huán)境中應(yīng)用神經(jīng)網(wǎng)絡(luò)。包括游戲、機(jī)器人、神經(jīng)架構(gòu)搜索等等。


教程:我們的 DeepTraffic 環(huán)境提供了一個(gè)教程和代碼示例,可以快速地在瀏覽器中探索、訓(xùn)練和評估深度 RL 智能體,我們將很快在 GitHub 上發(fā)布一個(gè)支持 GPU 訓(xùn)練的TensorFlow 教程。


MIT DeepTraffic: Deep Reinforcement Learning Competition


MIT DeepTraffic:

https://selfdrivingcars./deeptraffic-documentation/

https://github.com/lexfridman/deeptraffic


拓展概念


在深度學(xué)習(xí)中有幾個(gè)重要的概念并不是由上述架構(gòu)直接表示的,包括變分自編碼器(VAE)、LSTM/GRU 或神經(jīng)圖靈機(jī)中的 “記憶” 概念、膠囊網(wǎng)絡(luò),以及注意力機(jī)制、遷移學(xué)習(xí)、元學(xué)習(xí)概念,以及 RL 中基于模型、基于價(jià)值、基于策略的方法和 actor-critic 方法的區(qū)別。


最后,許多深度學(xué)習(xí)系統(tǒng)將這些結(jié)構(gòu)以復(fù)雜的方式組合起來,共同從多模態(tài)數(shù)據(jù)中學(xué)習(xí),或者共同學(xué)習(xí)解決多個(gè)任務(wù)。這些概念在本系列課程的其他課程中都有涉及,更多的概念將在接下來的課程中介紹:




加入社群


新智元AI技術(shù)+產(chǎn)業(yè)社群招募中,歡迎對AI技術(shù)+產(chǎn)業(yè)落地感興趣的同學(xué),加小助手微信 aiera2015_2 入群;通過審核后我們將邀請進(jìn)群,加入社群后請修改群備注(姓名-公司-職位;專業(yè)群審核較嚴(yán),敬請諒解)


加入新智元社群,成就AI新世界!


    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多