當前位置:文學樓>科幻靈異>我的超級黑科技帝國> 第六百三十二章
閱讀設定(推薦配合 快捷鍵[F11] 進入全屏沉浸式閱讀)

設定X

第六百三十二章 (1 / 2)

對於一個給定的感知器來說,它的權重和閾值也是給定的,代表一種決策策略。因此,我們可以透過調整權重和閾值來改變這個策略。

關於閾值td,這裡需要指出的一點是,為了表達更方便,一般用它的相反數來表達:b=td,這裡的b被稱為偏置(bias)。

這樣,前面計算輸出的規則就修改為:如果w1x1 + w2x2 + w3x3 +...+ b > 0,則輸出output=1,否則輸出output=0。

而權重w1=w2=2,則b=3。

很明顯,只有當x1=x2=1的時候,output=0,因為(?2*1+(?2*1+3=?1,小於0。而其它輸入的情況下,都是output=1。

所以在實際情況下,這其實是一個“與非門”!

在電腦科學中,與非門是所有門部件中比較特殊的一個,它可以透過組合的方式表達任何其它的門部件。這被稱為與非門的普適性(Gate Universality。

既然感知器能夠透過設定恰當的權重和偏置引數,來表達一個與非門,那麼理論上它也就能表達任意其它的門部件。

因此,感知器也能夠像前面三體中的例子一樣,透過彼此連線從而組成一個計算機系統。

但這似乎沒有什麼值得驚喜的,我們已經有現成的計算機了,這只不過是讓事情複雜化了而已。

單個感知器能做的事情很有限。要做複雜的決策,所以則是需要將多個感知器連線起來。

而實際中的網路可能會有上萬個,甚至數十萬個引數,如果手工一個一個地去配置這些引數,恐怕這項任務永遠也完成不了了。

而神經網路最有特色的地方就在於這裡。

我們不是為網路指定所有引數,而是提供訓練資料,讓網路自己在訓練中去學習,在學習過程中為所有引數找到最恰當的值。

大體的運轉思路是這樣:我們告訴網路當輸入是某個值的時候,我們期望的輸出是什麼,這樣的每一份訓練資料,稱為訓練樣本(training&nple)。

這個過程相當於老師在教學生某個抽象的知識的時候,舉一個具體例子:

一般來說,我們舉的例子越多,就越能表達那個抽象的知識。這在神經網路的訓練中同樣成立。

我們可以向網路灌入成千上萬個訓練樣本,然後網路就自動從這些樣本中總結出那份隱藏在背後的抽象的知識。

這份知識的體現,就在於網路的所有權重和偏置引數的取值。

假設各個引數有一個初始值,當我們輸入一個訓練樣本的時候,它會根據當前引數值計算出唯一的一個實際輸出值。

這個值可能跟我們期望的輸出值不一樣。想象一下,這時候,我們可以試著調整某些引數的值,讓實際輸出值和期望輸出值儘量接近。

當所有的訓練樣本輸入完畢之後,網路引數也調整到了最佳值,這時每一次的實際輸出值和期望輸出值已經無限接近,這樣訓練過程就結束了。

假設在訓練過程中,網路已經對數萬個樣本能夠給出正確(或接近正確)的反應了,那麼再給它輸入一個它沒見過的資料,它也應該有很大機率給出我們預期的決策。這就是一個神經網路工作的原理。

上一章 目錄 +書籤 下一頁