日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

[深度學習]神經(jīng)網(wǎng)絡(luò)中 權(quán)重矩陣/卷積核 以及 (y=wx+非線性變換)輸出值/特征圖的本質(zhì)理解

 袁先森lemon 2021-08-07

直觀感受

最近在學習cs231n課程和之前自學習的內(nèi)容有了理解上的偏差,現(xiàn)在記錄有點理解在此。
對于之前知識需要了解的,請先看 本章第二部分(或者觀看cs231n前五章).

CNN權(quán)重矩陣和特征圖理解

特征是什么

隱層輸出作為特征,權(quán)重矩陣或者叫隱藏權(quán)重,只是一個特征提取(映射)方法,對于不同的輸入是固定的,特征對應(yīng)于特定輸入。

什么叫特征?就是對某種事物的一種表示。一個簡單的例子,一個點,在歐氏坐標里表示為(x,y),這就是在歐氏空間的特征,在極坐標中表示為(r,θ),這就是在極坐標中的特征。我們通過一個公式,可以將歐氏坐標映射為極坐標,這個映射參數(shù)就可以看成隱藏層參數(shù),而映射后的值就是提取的新的特征。

(這里是作為 特征映射、空間轉(zhuǎn)換的例子;CNN中 W也是作為一種映射,不同的W來提取 映射到達的某些特殊的空間結(jié)構(gòu)。所以CNN是學到了一些與空間結(jié)構(gòu)有關(guān)的信息用于識別。)

權(quán)重訓練完就固定了,對于不同輸入都一樣,所以不可能是從數(shù)據(jù)中提取的特征。

權(quán)重矩陣\濾波器理解

特征映射
這20幅圖像分別對應(yīng)20個不同的特征映射(filters, kernels)。每個特征映射由5X5的圖像表示,代表局部感知域中的5X5個權(quán)重。亮的像素點代表小的權(quán)重,與之對應(yīng)的圖像中的像素產(chǎn)生的影響較小。暗的像素點代表大的權(quán)重,意味著對應(yīng)的圖像中的像素的影響較大。可看出這些特征映射反應(yīng)了某些特殊的空間結(jié)構(gòu),因此CNN學習到了一些與空間結(jié)構(gòu)有關(guān)的信息用于識別。

特征圖\輸出值理解

特征圖:網(wǎng)絡(luò)中學習和調(diào)節(jié)的確實是一些參數(shù)、但是參數(shù)只是一個映射;最終需要的是隱藏層輸出的特征圖(FeatureMap);

輸出值:CNN不斷學習更新卷積核,卷積核更新了,學習到的特征也就被更新了(Map數(shù)值也就改變了);對分類問題而言,目的就是:對圖像提取特征,再以合適的特征來判斷它所屬的類別。類似這種概念:你有哪些個 子的特征,我就根據(jù)這些特征,把你劃分到某個類別去。所以一般最后都會加一個FC層(或者GAP)進行分類輸出值(化為對應(yīng)的概率值)。

總結(jié)

其實不需要糾結(jié),大家明上說的調(diào)參、學習權(quán)重,在CNN這里就很好理解了。卷積神經(jīng)網(wǎng)絡(luò)的一整套流程就是:更新卷積核參數(shù)(weights),就相當于是一直在更新所提取到的圖像特征,以得到可以把圖像正確分類的最合適的特征們。(一句話:更新weights以得到可以把圖像正確分類的特征。)


在這里引用cs231n的PPT,說明一下幾個理解重點。方便之后回憶查看。
二來是,上方理解不透徹的情況下,可以先順一遍 本章“基礎(chǔ)知識”;再進行 “權(quán)重矩陣和特征值\輸出值理解”

基礎(chǔ)知識

從線性分類器說起

這里直接把貓的圖片拉直(作為x的輸入 沒有考慮局部的特征情況)。w 像是多個輸入channel(這里三類 三個channel)的線性濾波器,進行了 平滑映射。

線性分類器

視覺角度——輸出值為 分類感知的特征
視覺角度

代數(shù)、視覺、幾何角度的理解:線性分類器y=wx的輸出特征.(分類器)
代數(shù)、視覺、幾何角度的理解

最終評分矩陣W為——特征映射。最終評分矩陣W為特征映射

損失函數(shù)

SoftMax概率分布的交叉熵損失函數(shù)進行分類

SoftMax概率分布的交叉熵損失函數(shù)進行分類

線性SVM和Softmax損失函數(shù)對比:線性SVM和Softmax損失函數(shù)對比

優(yōu)化

梯度下降法

  • BGD (批量梯度下降法)
  • SGD Stochastic Gradient Descent (隨機梯度下降法)
  • Mini-Batch GD(小批量 梯度下降法)

后向傳播算法

重點掌握:反向的鏈式求導法則——這個在普通NN、CNN、RNN等都會用到!來進行梯度計算!

神經(jīng)網(wǎng)絡(luò)-非線性映射

起源:SVM的線性分類機,無法處理\不好處理 非線性的分類關(guān)系。人們開始研究:

  1. 特征轉(zhuǎn)換\映射(Feature Transformation)
     Feature Transformation
    以上希望將特征直接轉(zhuǎn)換為另一個特征映射。使用顏色數(shù)值、方向梯度直方圖——使其線性可分。

  2. 特征提?。‵eature Extraction)
    1)直接用CNN進行特征提取,使用多種卷積核——提取局部的特征;并進行高維的組合映射——以期 提取更為積極的分類特征(一方面通過不斷訓練得來、另一方面 CNN極強的先驗條件,使得CNN對于圖片 特征的提取,先天就有自然地積極地效果 。)
    Feature Extraction
    2)另外一點,CNN加入了非線性特征(激活函數(shù),否則 只是單純的深層線性組合),可以解決異或問題(XOR Problem)——使得神經(jīng)網(wǎng)絡(luò),原則(理論)上可以擬合任何函數(shù),進行特征提取或分類。
    神經(jīng)元細胞
    3)反向傳播鏈式求導法則:
    從右到左:使用 上游的梯度*當前梯度=當前反向傳播處的梯度值
    鏈式求導
    直觀感受

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多