腦細胞的差異可能是人工智能發展的關鍵
英國倫敦帝國學院研究人員發現,腦細胞之間的差異可能會加速學習並提高大腦和未來人工智能的性能。
一個發表在《自然通訊》的最新研究發現,透過在大腦網絡模擬中調整單個細胞的電學特性,大腦網絡會比使用相同細胞的模擬學習得更快。研究還發現,大腦網絡需要更少的調整單元來獲得相同的結果,並且該方法比具有相同單元的模型能耗更低。此研究發現可以告訴我們為什麼我們的大腦如此擅長學習,也可能幫助我們構建更好的人工智能係統,例如可以識別語音和麵部的數字助理,或自動駕駛汽車技術。
為什麼神經元像雪花?
大腦由數十億個稱為神經元的細胞組成,這些細胞通過巨大的“神經網絡”連接起來,使我們能夠了解世界。神經元就像雪花:從遠處看它們是一樣的,但進一步觀察很明顯,沒有兩個是完全相同的。
相比之下,人工神經網絡(人工智能所基於的技術)中的每個細胞都是相同的,只是它們的連接性不同。儘管人工智能技術的發展速度很快,但他們的神經網絡學習的準確度或速度不如人腦——研究人員想知道他們缺乏細胞變異性是否可能是罪魁禍首。
研究人員著手研究透過改變神經網絡的細胞特性來模擬大腦是否可以促進人工智能的學習。結果發現細胞的變異性提高了他們的學習能力並降低了能量消耗。
調整時間
為了進行這項研究,研究人員專注於調整“時間常數”——也就是說,每個細胞根據與其相連的細胞正在做什麼來決定它想要做什麼的速度。有些細胞會很快做出決定,只看連接的細胞剛剛做了什麼。其他細胞的反應會較慢,它們的決定基於其他細胞一段時間以來一直在做什麼。
在改變細胞的時間常數後,他們讓網絡執行一些基礎機器學習的任務:對衣服和手寫數字的圖像進行分類;識別人類手勢;並識別口語數字和命令。結果顯示,讓網絡結合慢速和快速信息,能夠更有效地解決更複雜的現實世界中的任務。當研究人員改變模擬網絡中的變異量時,結果發現表現最好的網絡與大腦中看到的變異量相匹配,這顯示大腦可能已經進化為具有適合最佳學習的變異量。
回應文章建議規則: