當前位置:文學樓>都市言情>重生之AI教父> 162. 網路的重引數化
閱讀設定(推薦配合 快捷鍵[F11] 進入全屏沉浸式閱讀)

設定X

162. 網路的重引數化 (2 / 2)

實際上,馬斯克沒有對這件事情抱有特別大的希望。在他看來,孟繁岐上次給出的方案已經好到非常離譜了。

&nNet,還沒把殘差的原理和一些變種搞明白的時間點,孟繁岐已經針對各種不同平臺的其他運算裝置,做了相當多的實驗。

從而透過最佳化運算元結構,調整特定計算過程的方式,將這個核心的骨幹網路引數量減少了接近十倍。

運算快了這麼多,效能卻沒什麼變化,這已經非常不得了了。

馬斯克有這一問,也是私下裡的隨口一提。

但他名頭太大,以往自己做的事情又太瘋狂,導致孟繁岐聽著他那頗為低沉,有磁性的聲音之時,當了真。

還真以為這是個非常嚴肅認真的需求。

“自動駕駛的熱度確實也快起來了,我專門針對這方面做點最佳化工作,也不算虧。”

孟繁岐一邊利用著重生優勢開始抄底一些車企的股票,一邊開始著手實現一個巧妙的加速並且節省記憶體的方式。

這個新的最佳化辦法叫做網路結構的重引數化。

這半年來,視覺方法效能的突飛猛進來自於孟繁岐提出的殘差方法,也就是將y = F(x變為 y = F(x+ x。

這裡的寫法比較簡便,將一系列複雜的操作,抽象歸納為F(,在實際運算過程中,這個F(還是比較複雜的,往往需要算上好一會。

但在計算的時候,就有一個問題了,原本y = F(x運算開始的時候,就不再需要繼續儲存x這個變數了,因為它已經在參與F(x的運算。

在運算過程當中,它會變成其他的中間變數,然後最終變為我們所想要的y。

可在殘差辦法當中,y = F(x+ x,x這個原始的輸入,是不能夠捨棄的。

必須有空間一直被佔用著,用來存放這個x,因為它還等著最後加上去呢。

在比較複雜,解析度比較高的任務當中,這個變數的大小是相當可觀的。

這種情況有沒有辦法可以規避?規避之後,殘差方法帶來的效能提升能不能不要被影響?

答案當然是肯定的,完全可以做到。

孟繁岐準備實現的這種結構重引數化,其最核心的思想就是模型訓練和實際使用推理的分離。

首先構造一系列結構(一般用於訓練),並將其引數等價轉換為另一組引數(一般用於推理),從而將這一系列結構等價轉換為另一系列結構。

在現實場景中,訓練資源一般是非常豐富的,可以在大型的伺服器上得到。

而推理的時候,計算資源往往會比較有限,因此大家更在意的是推理時的開銷和效能。

想要訓練時的結構較大,具備好的某種性質,比如效能特別好,準確率特別高。

但在推理的時候,則把結構變小變快,同時在數學上等價於大型的結構。

孟繁岐的這個新辦法,就提供了這種可能,他相信,重引數+移動端網路的算力削減,將會成為自動駕駛領域的一大催化劑。最新網址:

本站網站:

上一頁 目錄 +書籤 下一章