日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

 niudp 2018-12-22

神經(jīng)元/感知

這是什么?

答:只是一個簡單的等式

y=f(∑(x? × W?)+b?)

  • y是預(yù)測
  • f是非線性函數(shù)
  • x?是數(shù)據(jù)點/輸入
  • W?是權(quán)重
  • b0是偏差

另一種表達方式

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

為什么需要這個?

我們的目標是找到輸入和轉(zhuǎn)換的組合來幫助我們預(yù)測。

例如,考慮一個分類問題:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

為什么使用偏差?

一條沒有偏差的線:

y=mx

即一條穿過原點的線

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

一條有位移沒有偏差的線:

y=mx+c

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

這會幫助你的分類器移動

f(非線性)如何幫助?

最常用的激活函數(shù):

  • 線性:

Y = F(X)= X

  • Sigmoid,Tanh,ReLU

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

  • Hard-Sigmoid:

y=f(x)=max(0,min(1,x×0.2+0.5))

它是sigmoid的近似值。此激活函數(shù)是Keras中RNN的默認激活函數(shù),用于提高速度。

怎么做?

答案矩陣代數(shù)

回顧一下:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

檢查輸出和輸入維度之間的關(guān)系:

  1. (row×midcol)?(midcol×col)=row×col

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

檢查維度:

(1×n)?(n×1)=1×1(1×n)?(n×1)=1×1

矩陣表示法:

Y=WX+b

如果我們應(yīng)用非線性函數(shù):

Sigmoid:Y =σ(WX + b)

Tanh:Y = tanh(WX + b)

MLP:多層感知器

多個神經(jīng)元在一起

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

如何在矩陣中做到這一點?

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

檢查維度:

(1×n)*(n×h)=(1×h)

h是隱藏的圖層維度

一種不同的方式

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

隱藏層看起來很整潔

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

如果我將多個列放在一起怎么辦?

這就是我們通常做的事情

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

b稱為Batch_Size

相同的Matrix符號:

Y=f(WX+b)

因此每個隱藏層都是自己的分類器。我們將多個分類器放在一起

一個流行的例子

異或門:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

MLP:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

BTS

每個神經(jīng)元在數(shù)學(xué)上是具有一些非線性變換的線性平面。該平面存在于n維空間中,其中特征是構(gòu)成維度。

實際上,每個神經(jīng)元都是分類器(和特征生成器)。神經(jīng)網(wǎng)絡(luò)具有多個這樣的神經(jīng)元,其充當(dāng)另一神經(jīng)元的輸入。從上面的例子中獲取XOR的神經(jīng)網(wǎng)絡(luò):你會看到兩個分類器(黃線和藍線)。下一個神經(jīng)網(wǎng)絡(luò)使用它們定義的邊界進行推理。

讓我們看看非線性如何在神經(jīng)網(wǎng)絡(luò)中組合在一起。

考慮以下兩種情況:

例1:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

圖1顯示了我們的結(jié)論的例子,即“ 每個神經(jīng)元都是一個分類器 ”。數(shù)據(jù)只需要兩個分類器,這就是模型在圖1中的工作方式。還為每個神經(jīng)元顯示了分類邊界。

你可以說神經(jīng)網(wǎng)絡(luò)是多個分類器的組合。

例2:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

圖2顯示了當(dāng)我們的模型比所需模型更復(fù)雜時會發(fā)生什么。它不會影響性能。但它也會有很多冗余。虛線表示權(quán)重?,F(xiàn)在檢查以下內(nèi)容

隱藏層1(4個神經(jīng)元):

  • 第一和第二神經(jīng)元與輸入基本相同
  • 第3和第4神經(jīng)元是相同的

隱藏層2(3個神經(jīng)元):

  • 第3神經(jīng)元在分類中比其他神經(jīng)元更重要(輸出權(quán)重更強)
  • 第三神經(jīng)元主要取決于與輸入相似的那些nurons

輸入數(shù)據(jù)本身怎么樣?它增加了什么樣的價值?

以下是兩種情況:

例3:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

V / S

例4:

神經(jīng)網(wǎng)絡(luò):簡單數(shù)學(xué)與解釋

如果擁有相關(guān)功能,網(wǎng)絡(luò)將能夠更好地進行分類。

我相信很多人會對此不以為然。事實上,行業(yè)走向深度學(xué)習(xí)的一個重要原因是它為您執(zhí)行特征提取。這也是我的觀點; 如果您已經(jīng)知道哪些輸入是好的,請使用它來使模型更快地學(xué)習(xí)。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多