人工智慧神經網路的架構

2021/01/11
人工智慧

目前常用的人工神經網路,都和大腦的結構與功能息息相關。以下介紹三種常見的神經網路架構。          

多層感知器(Multi-layered Perceptron)

多層感知器架構中,神經網路中的虛擬神經元排列成為多層結構,且神經網路內的每一顆神經元都和前後層的所有神經元互相連接。多層感知器利用調節神經之間的連結強度,來進行不同的運算並且儲存資訊。值得注意的是,訊息在多層感知器裡傳遞時的方向是單向進行,從輸入訊號一路傳到輸出神經元,進行資料的判斷和預測。

遞迴神經網路(Recurrent Neural Network, RNN)

然而,大腦皮質裡,許多神經元之間會形成互相連結的迴圈(loop),因此神經訊號可以雙向的傳遞。根據這個概念發展出來的遞迴神經網路中,同一顆神經元的訊號會透過其他神經元的迴饋,隨著時間不斷改變。這樣的模型因為模擬了大腦皮質的結構,在許多模擬大腦皮質的認知功能上,比多層感知器的訓練表現來得更好。

卷積神經網路(Convolutional Neural Network, CNN)

在視覺辨識上,卷積神經網路結合了擷取特徵的濾鏡(filter),掃視圖片的不同區域,試圖先擷取出特定的視覺特徵,再將這些特徵傳入類似多層感知器的神經網路進行分類,以告訴我們輸入的圖片究竟是什麼物體。卷積神經網路在透過大量的標註資料訓練之後,其每一層神經網路的訊號,會跟大腦的視覺訊息傳遞路徑上各個結構的神經訊號,有非常高的對應關係。這樣人工神經網路和大腦迴路驚之間人的相似性,再次支持了利用大腦的結構,作為人工神經網路的基本架構,是非常有潛力的發展模式。

神經網路演算法的生物基礎:深度強化學習

除了單純的判斷感覺訊息之外,人工神經網路也可以針對輸入訊息,決定應該要做出什麼動作反應。近年來,最為人熟知為機器學習帶來突破性發展關鍵演算法,「強化學習」(reinforcement learning),利用的是每次選擇之後的結果,回饋給學習系統,如果選擇之後結果很滿意,下次就重複相同的選擇;反之,如果結果不如預期,下次就應該要避免這個選擇。這樣簡單的試誤學習機制,配合上多層結構的深度學習神經網路,成功地讓DeepMind發展出打敗世界棋王的AlphaGo。其基本的原理就是透過強大的運算能力,不斷地反覆學習每個下棋的步驟應該要如何最大化贏棋的機率。這個例子也再次凸顯開發新演算法的重要影響:只要將一個簡單的新概念,整合進機器學習演算法中,不只是能將80%的準確度提升到90%,而是能夠發展出原本的神經網路完全無法做到的新功能,更有機會帶給人類文明劃世代的新發明。

強化學習中的回饋機制,不只是想像中可行的演算方法,而是大腦中神經細胞實際可以進行的學習方式。我的指導老師Prof. Wolfram Schultz在70-80年代,首次在獼猴的大腦中,證實強化學習所需要的「學習信號」(learning signal),在大腦中是透過神經傳導物質多巴胺(dopamine)來進行回饋。因此,透過研究以多巴胺神經元為核心的獎賞系統的神經迴路,我們可以發展出更多元的學習演算法。當代機器學習中,常用的三種學習模式分類:「監督式學習」(supervised learning)、「強化學習」(reinforcement learning)、「非監督式學習」(unsupervised learning),在大腦裡面也都能找到對應使用的區域和迴路。這表示大腦複雜的認知功能,至少有多種複合性的學習系統共同執行完成。現在,人工智慧工程師也越來越常使用不同的神經網路互相結合,期待能解決更複雜的問題,然而,他們卻時常面臨到,不同的神經網路應該要如何結合的問題。循此思路,其實在大腦裡這些不同的學習系統都試過特定的結構緊密連結,我們或許可以根據需要,從大腦裡學習系統的結合方式,同樣的道理將人工神經網路互相組合。     黃飛揚