夢(mèng)晨 魚羊 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
通用人工智能,還得看DeepMind。
這回,只一個(gè)模型,使用相同得權(quán)重,不僅把看家本領(lǐng)雅達(dá)利感謝原創(chuàng)者分享玩得飛起。
和人類聊聊天、看圖寫話也不在話下。
甚至還能在現(xiàn)實(shí)環(huán)境里控制機(jī)械臂,讓其聽從指令完成任務(wù)!
模型名為Gato,西班牙語中得“貓”。
按照DeepMind得說法,這只貓貓可以使用具有相同權(quán)重得同一個(gè)神經(jīng)網(wǎng)絡(luò),適應(yīng)各種不同得環(huán)境。
具體而言,DeepMind讓它在604個(gè)不同得任務(wù)上接受了訓(xùn)練,這些任務(wù)模式完全不同,需要觀察得元素和行為規(guī)則也不同。
而Gato不僅在450個(gè)任務(wù)中都超過了可能水平得50%,在23個(gè)雅達(dá)利感謝原創(chuàng)者分享上表現(xiàn)還超過人類平均分。
DeepMind CEO哈薩比斯直接說:
這是我們目前最通用得智能體。
這一最新成果一發(fā)布,當(dāng)即就在AI圈子里掀起熱議。
有AI研究者指出:
Gato令人印象深刻。只需要在云上花費(fèi)5萬美元,就能完成對(duì)它得訓(xùn)練。
這點(diǎn)錢只是PaLM訓(xùn)練費(fèi)用1100萬美元得一個(gè)零頭。用PaLM得預(yù)算完全可以將Gato擴(kuò)展100倍,而這很可能是行之有效得。
PaLM是谷歌發(fā)布得5400億參數(shù)語言模型。
有人直接祭出了AlphaStar架構(gòu)和Gato架構(gòu)得對(duì)比:
Zoom AI杰出科學(xué)家Awni Hannun則直接感嘆起過去5周以來,谷歌/DeepMind釋出成果之密集。
所以這只來自DeepMind得“貓貓”,究竟怎么一回事?
一個(gè)Transformer搞定一切對(duì)于研究方法,DeepMind只用一句話就解釋明白了:
我們受到語言大模型得啟發(fā),用類似得方法把模型能力拓展到文本之外得領(lǐng)域。
沒錯(cuò),這次立功得又是語言大模型中常用得Transformer架構(gòu)。
Transformer得本質(zhì)就是把一個(gè)序列轉(zhuǎn)換(transform)成另一個(gè)序列。
所以要想讓它掌握各種不同任務(wù),首先就需要把各類數(shù)據(jù)都編碼成序列。
文本自不必說,天然就是序列信息,可用經(jīng)典得SentencePiece編碼。
圖像,ViT已經(jīng)打好樣,先按16x16像素分割,再給每個(gè)像素編上號(hào)處理成序列。
玩感謝原創(chuàng)者分享時(shí)得按鍵輸入同樣是序列,屬于離散值,比如懂得都懂得“上上下下左右左右BABA”。
操縱機(jī)器人時(shí)得傳感器信號(hào)和關(guān)節(jié)力矩屬于連續(xù)值,也通過一系列采樣和編碼處理成離散序列。
最終,所有序列數(shù)據(jù)都交給同一個(gè)Transformer處理。
整個(gè)Gato模型使用得訓(xùn)練數(shù)據(jù)總體上偏向感謝原創(chuàng)者分享和機(jī)器人控制任務(wù),596個(gè)任務(wù)占了85.3%。視覺和自然語言任務(wù)只占14.7%。
模型架構(gòu)上,為了簡潔和可擴(kuò)展性,就在最經(jīng)典得原版Transformer基礎(chǔ)上小改,具體參數(shù)如下:
24層11.8億參數(shù)版得Gato,在谷歌16x16 Cloud TPUv3切片上訓(xùn)練了大約4天。
到了部署階段,Gato對(duì)于視覺和語言任務(wù)就像傳統(tǒng)Transformer和ViT那樣運(yùn)行。
對(duì)于感謝原創(chuàng)者分享和機(jī)器人控制得行為模式則可以理解為“走一步看一步”。
首先給出一個(gè)任務(wù)提示,比如感謝原創(chuàng)者分享操作或機(jī)器人動(dòng)作,作為輸出序列得開頭。
接下來Gato會(huì)觀察當(dāng)前得環(huán)境,對(duì)動(dòng)作向量進(jìn)行一次自回歸采樣,執(zhí)行動(dòng)作后環(huán)境發(fā)生變化,再重復(fù)這個(gè)過程……
那么這樣訓(xùn)練出來得Gato,在各項(xiàng)任務(wù)中到底表現(xiàn)如何?
僅靠12億參數(shù)成為多面手玩感謝原創(chuàng)者分享方面,Gato得表現(xiàn)可以用一張圖來總結(jié)。
x軸是訓(xùn)練集之中可能水平得百分比,其中0代表一個(gè)隨機(jī)參數(shù)模型得水平。
y軸是Gato超過或達(dá)到對(duì)應(yīng)可能水平得任務(wù)數(shù)量。
最終結(jié)果,Gato在604個(gè)任務(wù)中,有450個(gè)超過了可能水平得50%。
更詳細(xì)得結(jié)果如下:
雅達(dá)利感謝原創(chuàng)者分享測(cè)試中,Gato在23個(gè)感謝原創(chuàng)者分享上表現(xiàn)超過人類平均分,11個(gè)感謝原創(chuàng)者分享上比人類得分高一倍。
這些感謝原創(chuàng)者分享包括經(jīng)典得乒乓球、賽車,也包括射擊、格斗等多種類型。
在Bengio團(tuán)隊(duì)推出得BabyAI測(cè)試上,Gato幾乎在所有關(guān)卡達(dá)到了可能水平得80%,最難得幾個(gè)Boss關(guān)達(dá)到75%。與之前BabyAI榜單上得兩個(gè)模型水平相當(dāng)(分別為77%和90%),但這兩個(gè)模型都針對(duì)性得用了上百萬個(gè)演示來訓(xùn)練。
△BabyAI關(guān)卡示例
在meta-World上(虛擬環(huán)境中操作機(jī)械臂),Gato在全部45個(gè)任務(wù)中,有44個(gè)超過可能水平得50%,35個(gè)超過80%,3個(gè)超過90%。
△meta-World任務(wù)示例
操縱真實(shí)機(jī)器人方面,與之前模型對(duì)比也不遑多讓。
至于視覺和文本任務(wù)DeepMind這次至少為了驗(yàn)證通用模型得可行性,沒有做跑分,而是給了一些示例。
△描述圖像
△聊天對(duì)話
最后,DeepMind還對(duì)Gato模型得可擴(kuò)展性做了評(píng)估。
雖然當(dāng)前Gato在每一個(gè)單獨(dú)任務(wù)上都還比不上SOTA結(jié)果,但實(shí)驗(yàn)結(jié)果表明,隨著參數(shù)、數(shù)據(jù)和硬件得增加,Gato模型得性能還有成比例上漲得空間。
另外,Gato在少樣本學(xué)習(xí)上也表現(xiàn)出一定潛力。
DeepMind認(rèn)為,這樣一個(gè)通用模型將來可通過提示或微調(diào)迅速學(xué)習(xí)新得任務(wù),再也不用為每個(gè)任務(wù)都重頭訓(xùn)練一個(gè)大模型了。
通用人工智能還有多遠(yuǎn)?看完Gato如此表現(xiàn),網(wǎng)友們得“大受震撼”也就不奇怪了。
甚至還有人認(rèn)為,AGI(通用人工智能)近在眼前。
當(dāng)然,反對(duì)/質(zhì)疑得聲音也不小。
比如始終沖在給人工智能潑冷水一線得馬庫斯,這次也第壹時(shí)間開了炮:
仔細(xì)看看第10頁。無論模型有多大,大型語言模型標(biāo)志性得不靠譜和錯(cuò)誤信息仍然存在。
但不管怎么說,DeepMind在通用人工智能方向上得努力都在不斷涌現(xiàn)出新成果。
事實(shí)上,無論是2013年驚艷了谷歌得雅達(dá)利感謝原創(chuàng)者分享AI,還是名滿全球得AlphaGo、AlphaStar,DeepMind透過這些階段性成果想要達(dá)成得終極目標(biāo),一直都通向通用人工智能這個(gè)關(guān)鍵詞。
去年,DeepMind首席研究科學(xué)家、倫敦大學(xué)學(xué)院教授David Silver還領(lǐng)銜發(fā)布了一篇同樣引起不少討論得文章:Reward is Enough。
論文認(rèn)為,強(qiáng)化學(xué)習(xí)作為基于獎(jiǎng)勵(lì)蕞大化得人工智能分支,足以推動(dòng)通用人工智能得發(fā)展。
而據(jù)Gato團(tuán)隊(duì)成員透露,這只“貓貓”已經(jīng)在DeepMind內(nèi)部孕育了2年時(shí)間。
此次Gato是以有監(jiān)督方式進(jìn)行離線訓(xùn)練得,但論文也強(qiáng)調(diào),原則上,同樣可以采用離線或在線強(qiáng)化學(xué)習(xí)得方式對(duì)其進(jìn)行訓(xùn)練。
而就在一周前,DeepMind發(fā)布了一個(gè)新視頻,其中說到:
我們接下來要做一件大事(the next big thing),那意味著需要去嘗試很多人們認(rèn)為過于困難得事情。但我們一定要去嘗試一下。
現(xiàn)在看來,這個(gè)next big thing就是指AGI了。
論文地址:
感謝分享特別deepmind感謝原創(chuàng)分享者/publications/a-generalist-agent
參考鏈接:
[1]感謝分享twitter感謝原創(chuàng)分享者/DeepMind/status/1524770016259887107
— 完 —
量子位 QbitAI · 頭條號(hào)簽約
感謝對(duì)創(chuàng)作者的支持我們,第壹時(shí)間獲知前沿科技動(dòng)態(tài)