近日,多倫多大學(xué)的教員、谷歌大腦(Google Brain)研究員杰弗里·辛頓(Geoffrey Hinton)發(fā)表了爐邊談話。他討論了神經(jīng)網(wǎng)絡(luò)的起源,以及人工智能有朝一日可能像人類一樣推理的可行性和意義。辛頓被一些人稱為“人工智能教父”,他在過(guò)去30年里一直致力于解決人工智能面臨的一些最大挑戰(zhàn)。
辛頓認(rèn)為目前的人工智能和機(jī)器學(xué)習(xí)方法都有其局限性。他指出,大多數(shù)的計(jì)算機(jī)視覺(jué)模型都沒(méi)有反饋機(jī)制,也就是說(shuō),它們不會(huì)試圖從更高層級(jí)的表征重建數(shù)據(jù)。相反,它們?cè)噲D通過(guò)改變權(quán)重來(lái)有區(qū)別地學(xué)習(xí)特征。“它們并沒(méi)有在每一層的特征探測(cè)器上檢查是否能夠重建下面的數(shù)據(jù)。”辛頓說(shuō)道。
他和同事們最近轉(zhuǎn)向人類視覺(jué)皮層來(lái)尋找靈感。辛頓說(shuō),人類的視覺(jué)采用了一種重建的方法來(lái)學(xué)習(xí),事實(shí)證明,計(jì)算機(jī)視覺(jué)系統(tǒng)中的重建技術(shù)增強(qiáng)了它們對(duì)對(duì)抗攻擊的抵抗力。“大腦科學(xué)家都同意這樣的觀點(diǎn),如果你的大腦皮層有兩個(gè)區(qū)域處于感知通路中,并且相互連接,那么總有一個(gè)反向通路。”辛頓表示。
需要說(shuō)明的是,辛頓認(rèn)為神經(jīng)科學(xué)家需要向人工智能研究人員學(xué)習(xí)很多東西。事實(shí)上,他覺(jué)得未來(lái)的人工智能系統(tǒng)將主要是非監(jiān)督式的。他說(shuō),非監(jiān)督式學(xué)習(xí)——機(jī)器學(xué)習(xí)的一個(gè)分支,從未標(biāo)記、無(wú)法歸類和未分類的測(cè)試數(shù)據(jù)中收集知識(shí)——在學(xué)習(xí)共性和對(duì)潛在的共性做出反應(yīng)的能力方面,幾乎就像人類一般。
“為什么我們根本不記得我們的夢(mèng)呢?”辛頓反問(wèn)道。他認(rèn)為這可能與“反學(xué)習(xí)”有關(guān)。辛頓說(shuō),“做夢(mèng)的意義可能在于,你把整個(gè)學(xué)習(xí)過(guò)程顛倒過(guò)來(lái)。”在他看來(lái),這些知識(shí)可能會(huì)完全改變一些領(lǐng)域,比如教育。例如,他預(yù)計(jì),未來(lái)的課程將更加個(gè)性化,有更強(qiáng)的針對(duì)性,將把人類生物化學(xué)過(guò)程考慮進(jìn)來(lái)。
“你可能會(huì)認(rèn)為,如果我們真正了解大腦的運(yùn)轉(zhuǎn)機(jī)制,我們應(yīng)該能夠改善教育等方面的狀況,我認(rèn)為我們會(huì)做到的。”辛頓稱,“如果你能最終了解大腦發(fā)生了什么,它是如何學(xué)習(xí)的,而不是沒(méi)有去進(jìn)行調(diào)整適應(yīng),取得更好的學(xué)習(xí)效果,那會(huì)令人費(fèi)解。”他警告說(shuō),實(shí)現(xiàn)這一點(diǎn)尚需時(shí)日。就近期而言,辛頓設(shè)想了智能助手的未來(lái)——比如谷歌的Google Assistant或亞馬遜的Alexa——它們可以與用戶互動(dòng),并在日常生活中給他們提供各種指導(dǎo)。
來(lái)源:新浪VR