30年冷板凳,諾貝爾物理學獎得主Hinton的AI往事
上世紀80年代,Hinton看《終結者》時,沒有被影片中的AI毀滅世界困擾。相反,他很高興看到神經網絡技術被描繪得如此有前途。
數十年來,Hinton設計了很多新點子來訓練神經網絡。他招募了很多研究生,讓大家相信神經網絡不是一條死衚衕。他認爲自己參與的項目會在100年後,也就是在他死後才能取得成果。
他的昆蟲學家父親曾說:“如果你比我努力兩倍,當你年紀是我兩倍大時,或許才能達到我一半的成就。”在劍橋大學,Hinton嘗試了多個領域。但令他沮喪的是,在任何一門課程中,他都不是班上最聰明的學生。
在夏天的島嶼上,Hinton偶爾會捉蛇,並放進一個玻璃缸,觀察它們的行爲。他的一生都在思考如何“自下而上”地理解思維,因此對非人類的心智有獨到的洞察力。
在蛹裡,毛毛蟲被溶解成湯狀物質——然後你從“這鍋湯”中構建出一隻蝴蝶。毛毛蟲代表了用於訓練現代神經網絡的數據;而蝴蝶則象徵從這些數據中誕生的AI。而深度學習——Hinton開創的技術——促成了這種蛻變。
Hinton堅信AI擁有情感。他認爲,情感的本質就是對無法擁有之物的渴求。
Geoffrey E. Hinton大概沒想到諾貝爾物理學獎頒給了自己。收到消息後,他被迫取消了預約好的核磁共振。
2024年諾貝爾物理學獎揭曉。機器學習專家John J. Hopfield、AI 教父Geoffrey E. Hinton榮獲此獎,以表彰他們“基於人工神經網絡實現機器學習的基礎性發現和發明”。
回顧Hinton近兩年的變化,可以用“戲劇化”形容。曾經他是AI 教父,畢生致力於教會計算機深度學習。如今他是AI安全鬥士,擔心AI是否已經超越了人類大腦的能力,認爲AI最終會和人類爭奪控制權。
爲何Hioton出現了這樣的變化?他眼中的AI將成長爲何種“怪物”?《紐約時報》的一篇長文從Hioton的經歷和神經網絡技術講起,帶我們瞭解這位深度學習巨擘的AI往事。
下面是全文翻譯,適道進行了部分刪減和調整。enjoy~
爲何AI教父懼怕自己創造的技術?
“如果能獲得更多控制權,它幾乎能實現一切目標”Hinton談及AI時說道,“研究的核心問題是:你如何防止AI掌控一切?然而,目前沒有人知道答案。”
Geoffrey Hinton,這位被稱爲“AI教父”的計算機科學家,遞給了我一根手杖。“你可能會用到這個”他說着,便沿着小徑朝湖邊走去。那條小徑穿過一個綠蔭掩映的空地,繞過幾間小屋,接着順着石階通向一個小碼頭。我們站在安大略省喬治亞灣的一塊岩石上,往西望去,延伸至休倫湖。水面上星羅棋佈的島嶼點綴其中。
2013年,65歲的Hinton買下了這座島嶼。彼時,他剛剛將一個由三人組成的創業公司以4400萬美元的價格賣給了Google。
30年神經網絡“冷板凳”
在此之前,Hinton在多倫多大學擔任了30餘年的計算機科學教授,專攻一種名爲神經網絡的“冷門”領域。
神經網絡是受人腦神經元連接方式的啓發。
在你的大腦中,神經元組成了大大小小的網絡。每一次行動、思考,網絡都會隨之變化:神經元要麼被納入,要麼被刪除,而它們之間的連接則會加強或減弱。
這個過程無時無刻不在發生——就像現在,當你閱讀這些文字時。其規模之大,難以想象。你的大腦中大約有800億個神經元,彼此間共享超過100萬億個連接。你的顱骨裡彷彿藏着一個星系,其恆星總在不停移動。
新的知識以微調的形式融入你現有的神經網絡中。有時它們是短暫的:比如你在派對上認識一個陌生人,他的名字可能只會在你的記憶網絡中留下短暫的痕跡。但有時記憶卻會伴隨你一生,比如當那個陌生人成了你的伴侶。
新知識與舊知識相互交織,你的舊知識會影響你未來的學習。比如,當派對上有人提到他去阿姆斯特丹旅行的經歷。第二天,如果你走進博物館時,你的神經網絡可能會輕輕地將你推向荷蘭畫家維米爾的作品。正是通過這種細微的變化,纔可能成就深刻的轉變。
一開始,人工神經網絡不怎麼奏效——無論是圖像分類、語音識別,還是其他應用——大多數研究者認爲該領域就是浪費時間。
“我們的神經網絡當時甚至連一個小孩都比不上”Hinton回憶道。
上世紀80年代,當他看《終結者》時,並沒有被影片中的AI毀滅世界困擾。相反,他很高興看到神經網絡技術被描繪得如此有前途。
數十年來,Hinton不斷嘗試構建更大、更復雜的神經網絡。
他設計出很多新點子訓練神經網絡,不斷提升性能。
他招募了很多研究生,讓大家相信神經網絡不是一條死衚衕。
他認爲自己參與的項目會在100年後,也就是在他死後才能取得成果。
與此同時,他成了鰥夫,獨自撫養兩個年幼的孩子。在一段特別艱難的日子,家庭和研究的雙重壓力讓他幾乎瀕臨崩潰。
他曾以爲自己在46歲時就徹底放棄了。
誰也沒預料到,大約十年前,神經網絡技術開始突飛猛進。
隨着計算機速度提升,神經網絡能夠藉助互聯網上的海量數據,開始轉錄語音、玩遊戲、翻譯語言,甚至實現自動駕駛。
就在Hinton公司被收購前後,人工智能迅速崛起,催生了OpenAI的ChatGPT和Google的Bard等系統,許多人相信這些技術正以不可預知的方式改變世界。
AI會變成“異形”嗎?
每當我們學習時,我們的大腦神經網絡都會發生變化——具體是如何發生的呢?
像Hinton這樣的研究者通過計算機,試圖找到神經網絡的“學習算法”,即一種通過調整人工神經元之間連接的統計“權重”來吸納新知識的程序。
1949年,心理學家Donald Hebb提出了一個人類學習過程的簡單規則——同步激活的神經元將會連接在一起。即,當你大腦中的一組神經元被同步激活,它們就更有可能再次激活。簡單來講,當你第二次做一道菜時,會比第一次容易得多。
但很快人們就發現,對於計算機神經網絡而言,這一方法解決不了複雜問題。
上世紀60、70年代,青年研究者Hinton常常在筆記本中畫出神經網絡,並想象新知識如何到達它們的邊界。他思索着,一個由幾百個人工神經元組成的網絡如何存儲一個概念?如果這個概念被證實是錯誤的,它又將如何進行修正?
Hinton的父親是一位著名的昆蟲學家。孩提時代,他和父親在車庫裡養了一坑的毒蛇、烏龜、青蛙、蟾蜍和蜥蜴。如今,Hinton每年夏季都會待在島上,偶爾還會捉到蛇並帶進屋裡,放進一個玻璃缸,藉此觀察它們的行爲。他的一生都在思考如何“自下而上”地理解思維,因此對非人類的心智有獨到的洞察力。
今年早些時候(2023年5月),Hinton離開了Google。他開始擔憂潛在的AI威脅,並在採訪中談論AI對人類種族構成的“生存威脅”。他越是使用ChatGPT,心中的不安就越強烈。某天,Fox News的一名記者聯繫他,要求就AI問題進行採訪。
Hinton喜歡用尖刻的單句回覆電子郵件。比如,在收到一封來自加拿大情報局的冗長來信後,他回覆了一句“斯諾登是我的英雄”。
這次,他的回覆依然玩了一把幽默:“Fox News is an oxy moron.(自相矛盾)”。
出於好奇,Hinton問ChatGPT能否解釋他的笑話。
ChatGPT:這句話暗示Fox News是假新聞。
當Hinton強調“moron”前的空格時,ChatGPT進一步解釋:這意味着Fox News像止痛藥OxyContin一樣讓人上癮。
Hinton對此感到震驚,這種理解力似乎預示着AI進入了一個全新時代。
雖然大家對AI崛起有許多擔憂的理由——被搶工作等等。
然而,Hinton與許多知名的科技人士站在了一起,比如OpenAI首席執行官Sam Altman,他們警告稱AI可能會開始自主思考,甚至試圖接管或消滅人類文明。
當你聽到一位如此重量級的AI研究者發出如此驚人的觀點,令人震撼。
“很多人說,LLM就是一個很高級的自動補全功能。”Hinton對我說,“現在,讓我們來分析一下。假設你想成爲預測下一個單詞的高手。如果你想成爲真正的高手,就必須理解別人在說什麼。”
“這是唯一的辦法。因此,通過訓練讓某個東西真正擅長預測下一個單詞,實際上就是強迫它去理解。是的,這是確實只是‘自動補全’——-但你並沒有想清楚擁有一個極其優秀的‘自動補全’意味着什麼”。
Hinton認爲,像GPT這樣的LLM確實能理解詞語和概念的含義。
那些懷疑我們高估AI能力的人指出——人類思維與神經網絡之間有很大的差距。
首先,神經網絡的學習方式與我們不同:人類是通過實際經驗,理解現實世界與自我的關係,自然地獲取知識;而神經網絡則是通過處理大量信息庫中的數據,以抽象的方式學習一個它不能真正生活的世界。
然而Hinton認爲,AI展現出的智慧已超越了其人工的起源。
他說:“當你吃東西時,你會攝入食物,然後把它分解成微小的各個部分。但如果你說——我身體裡的部分物質由其他動物的部分物質組成。這是不可能的。”
Hinton認爲:通過分析人類的寫作,像GPT這樣的LLM能夠了解世界是如何運轉的,從而誕生一個具備思維能力的系統。
而寫作只是這個系統功能的一部分。他繼續說道:“這就類似於毛毛蟲變蝴蝶的過程。在蛹裡,毛毛蟲被溶解成湯狀物質——然後你從這鍋湯中構建出一隻蝴蝶。”
“蜻蜓的幼蟲是生活在水下的怪物,就像電影《異形》中一樣,蜻蜓從怪物的背部爬出。幼蟲在這個階段變成了一鍋‘湯’,然後蜻蜓從‘湯’中誕生了。”
在Hinton的比喻中,幼蟲代表了用於訓練現代神經網絡的數據;而蜻蜓則象徵從這些數據中誕生的AI。而深度學習——Hinton開創的技術——促成了這種蛻變。
他輕聲說道,“你明白了其中的道理。它開始是一種狀態,最終變成了另一種不同的狀態。”
顯赫家族出了個“不聰明”的小輩
當年,Google收購Hinton創業公司,一部分原因是他的團隊知道如何利用神經網絡大幅提高圖像識別能力。而現在,屏幕上鋪滿了Hinton的家譜。
Hinton出生在一個特殊的英國科學世家:在政治上激進,在科學上探索。
叔祖父Sebastian Hinton是攀爬架的發明者;他的堂姐Joan Hinton是參與曼哈頓計劃的物理學家;
Lucy Everest,首位當選爲英國皇家化學研究所成員的女性。
Charles Howard Hinton,一位數學家,提出了四維空間概念。
19 世紀中葉,Hinton曾曾祖父、英國數學家George Boole發明了二進制推理系統,即現在的布爾代數,是所有計算的基礎。Boole的妻子Mary Everest是一位數學家和作家。
Yann LeCun的評價是,Geoff Hinton天生就是搞科學的料。
雖然學生時代的Hinton喜歡自然科學。但出於意識形態,他的昆蟲學家父親Howard Everest Hinton禁止他學習生物學。他記得父親曾說:“如果你比我努力兩倍,當你年紀是我兩倍大時,或許才能達到我一半的成就。”
在劍橋大學,Hinton嘗試了多個領域。但令他沮喪的是,在任何一門課程中,他都不是班上最聰明的學生。
他曾一度輟學,跑去“讀一些令人emo的小說”,並在倫敦打零工,然後又回到學校,嘗試學習建築學,但僅堅持了一天。
最後,在探索了物理、化學、生理學和哲學後,他選擇了實驗心理學專業。
他“潛伏”在道德哲學家Bernard Williams的辦公室裡,而後者對計算機與心智的興趣引發了Hinton的深思。
某天, Williams指出:我們的不同思想一定反映了大腦內部不同的物理排列;而這與計算機內部的情況截然不同——計算機的軟件與硬件是相互獨立的。
Hinton被這個觀點深深吸引。他回憶起高中時,一個朋友曾告訴他記憶可能以“全息”的方式儲存在大腦中——記憶是分散的,但通過任何一個部分都可以訪問整體。
這正是他後續研究的“連接主義”概念。這種方法結合了神經科學、數學、哲學和編程,探討神經元如何協同工作以“思考”。連接主義的一個目標是創造一個在計算機中模擬大腦的系統。
這個領域已經有了一些進展:1950年代,心理學家和連接主義先鋒Frank Rosenblatt建造了一臺Perceptron(感知機),使用簡單的計算機硬件模擬了數百個神經元的網絡。當連接到光感器時,Perceptron可以通過追蹤不同光線模式激活的人工神經元來識別字母和形狀。
而Hinton在劍橋的起步看似緩慢且略顯古怪,也有一部分原因是他在探索一個新興的領域。
“神經網絡——當時幾乎沒有頂尖大學研究這個領域” Hinton說道 “你在麻省理工做不了;在伯克利做不了;在斯坦福也做不了。”也正因如此,Hinton作爲一個新興技術的開創者。多年來,許多最頂尖的頭腦都向他靠攏。
撬開神經網絡“黑盒”
而在1970年代,絕大多數人工智能研究者都是“符號主義者”。在他們看來,瞭解諸如番茄醬這樣的事物,可能需要涉及多個概念,如“食物”、“醬料”、“調味品”、“甜”、“鮮味”、“紅色”、“番茄”、“美國”、“薯條”、“蛋黃醬”和“芥末”;
這些概念結合起來可以構建出一個腳手架,用來懸掛新概念如“番茄醬”。一個資金充足的大型人工智能項目Cyc,正是圍繞構建一個龐大的知識庫展開。科學家們可以使用一種特殊語言將概念、事實和規則(以及它們不可避免的例外)輸入其中。(鳥類會飛,但企鵝不會,受傷的鳥也不會……)
但是,Hinton對符號人工智能表示懷疑。這種方法似乎過於僵化,過於依賴哲學家和語言學家的推理能力。
他知道,在自然界中,許多動物即便沒有語言表達,也能表現出智能行爲。而它們只是通過經驗學習來變得聰明。
對於 Hinton 來說——學習,而不是知識,纔是智能的核心。
人類的高級思維通常似乎通過符號和語言進行。但是,Hinton與他的合作者James L. McClelland以及David Rumelhart認爲,大部分的認知活動其實發生在概念層面之下。
他們指出:“當你學到一個關於某個物體的新知識後,你對其他類似物體的預期也會發生變化”。比如,當你得知黑猩猩喜歡洋蔥時,你可能會猜測大猩猩也喜歡。
這表明知識可能是以“分佈式”的方式在大腦中產生的——由一些可以在相關概念之間共享的小型構建塊組成。
比如,大腦中不會有兩個分別代表“黑猩猩”和“大猩猩”的獨立神經元網絡;相反,不同的特徵,比如毛茸茸的、四足的、靈長類的、動物性的、聰明的、野生的等,可能會以一種方式激活來代表“黑猩猩”,以稍微不同的方式激活來代表“大猩猩”。
在這些特徵雲中,可能會加上“喜歡洋蔥”這一屬性。然而,這種由特徵構成的思維方式可能會導致混淆和錯誤:如果將特質錯誤地組合在一起,可能會產生一個既不是大猩猩也不是黑猩猩的幻想生物。但如果大腦擁有正確的學習算法,它或許能調整神經元之間的權重,優先生成合理的組合,而不是無意義的拼湊。
Hinton 繼續探索這些想法,先在加州大學聖地亞哥分校做博士後研究;然後在劍橋大學從事應用心理學研究;最後在卡內基梅隆大學。他於1982年成爲該校的計算機科學教授。在卡內基梅隆期間,他將大部分研究經費用於購買一臺足夠強大的計算機,以運行神經網絡。期間,Hinton 和 Terrence Sejnowski 合作開發了一個神經網絡模型——玻爾茲曼機(Boltzmann Machine)。
1986年,Hinton、Rumelhart和Williams在《自然》雜誌上發表了一篇三頁的論文,展示了一個系統如何在神經網絡中工作。
他們指出,反向傳播(backprop)和玻爾茲曼機(Boltzmann Machine)一樣,並不是“大腦學習的一個合理模型”——與計算機不同,大腦無法“倒帶”來檢查其過去的表現。然而,反向傳播仍然能夠實現類似大腦的神經專門化。
在真實的大腦中,神經元有時會按照解決特定問題的結構排列。例如在視覺系統中,不同的神經元“列”可以識別我們所看到的邊緣。
類似的現象也在反向傳播網絡中出現。網絡的更高層會對較低層施加一種進化壓力;因此,當一個網絡被賦予識別手寫體的任務時,某些層可能會專注於識別線條、曲線或邊緣。最終,整個系統可以形成“適當的內部表徵”。這個網絡不僅“知曉”了信息,還能加以運用。
在1950年代和60年代,感知機(Perceptron)和其他連接主義(connectionism)曾短暫興起,又逐漸衰落。反向傳播作爲其中的一部分,也獲得了廣泛的關注。
但構建反向傳播網絡的實際工作進展緩慢,一部分原因是因爲計算機的速度太慢。
Hinton回憶道:“進展速度基本取決於計算機一夜之間能學到多少東西。”而答案往往是“不多”。在概念上,神經網絡的工作方式則顯得神秘。傳統編程方式無法直接爲其編寫代碼,你不能去手動調整人工神經元之間的權重。而且很難理解這些權重的含義,因爲它們會通過訓練自動適應和改變。
在學習過程中,錯誤可能以多種方式發生。例如,“過度擬合”會讓網絡只記住了訓練數據,而不是從中總結出通用的規律。
避免這些陷阱並非易事,因爲神經網絡是自主學習的。研究人員可以嘗試通過“集成”技術(將弱網絡組合成一個強大的網絡)或“提前停止”(讓網絡學習,但不過度學習)來應對這些問題。
他們還可以通過“預訓練”系統,即先讓玻爾茲曼機學習一些東西,再疊加反向傳播網絡,從而使系統在已經掌握了一些基礎知識後纔開始“監督”訓練。
然後,他們會放任網絡繼續學習,希望它能達到預期目標。
新的神經網絡架構也應運而生——“循環”網絡和“卷積”網絡。但這就像研究人員發現了一項陌生的外星技術,卻不知如何使用。
Hinton說:“我始終堅信這不是胡說八道。”這並非出於信仰,而是顯而易見的:大腦通過神經元學習,因此通過神經網絡進行復雜的學習必然是可能的。爲了這一信念,他願意加倍努力,並堅持更久。
通過反向傳播訓練網絡時,網絡需要被告知哪裡出錯了,以及錯誤的程度,這要求有大量準確標註的數據,這樣網絡才能區分出手寫的“7”和“1”,或者區分金毛獵犬和紅色雪達犬。
然而,找到足夠大且標註良好的數據集並不容易,構建新的數據集更是一項艱苦的工作。
LeCun及其合作者開發了一個包含大量手寫數字的數據庫,後來他們用它來訓練一個網絡,可以讀取美國郵政服務提供的樣本郵政編碼。
李飛飛主導了一個龐大的項目——ImageNet,其創建過程涉及收集超過1400萬張圖像,並手動將它們分爲2萬個類別。
隨着神經網絡的不斷擴展,Hinton發明了一種將知識從大型網絡傳遞給較小網絡的方法——蒸餾(distillation)——可以在手機等設備上運行。
在蒸餾學習中,一個神經網絡不僅爲另一個神經網絡提供正確的答案,還能提供一系列可能的答案及其概率,這是一種更爲豐富的知識傳遞方式。
Hinton不喜歡反向傳播網絡。因爲與玻爾茲曼機不同,“反向傳播完全是確定性的。不幸的是,它的確效果更好。”隨着計算機性能的進步,反向傳播的威力漸漸變得無可否認。
Hinton做過一個計算。假設在1985年,他開始不停歇地在一臺高速計算機上運行一個程序。如今只需不到一秒鐘的時間就可以趕上。
進入2000年代,隨着配備強大計算機的多層神經網絡,開始在大規模數據集上進行訓練,Hinton、Bengio 和 LeCun 開始討論“深度學習”的潛力。
2012年,這項研究跨過了一個門檻。彼時,Hinton、Alex Krizhevsky 和 Ilya Sutskever 推出了AlexNet,這是一個八層神經網絡,最終能夠以人類水平的準確率識別 ImageNet 數據集中的物體。
隨後,三人創辦了一家公司,並將其出售給了Google。
Hinton拿這筆錢買下了開篇的那座小島——“這是我唯一真正的放縱”。
他堅信神經網絡確實擁有情感
2017年6月,Hinton、Bengio和LeCun獲取了圖靈獎,相當於計算機科學領域的諾貝爾獎。
Hinton堅信,神經網絡確實擁有某種情感,即對行爲傾向的一種描述方式。
他在1973年見過一個“emo的人工智能”。當時一臺計算機連接着兩臺電視攝像頭和一個簡單的機械手臂,系統的任務是將散落在桌子上的積木組裝成一輛玩具車。
“這在1973年是相當困難的,”他說。“視覺系統可以識別分開的積木,但如果你把它們堆在一起,它就無法識別。所以它怎麼做呢?它稍微後退了一點,然後砰地一下,把積木撒得滿桌子都是。它無法應對當前的狀況,於是通過暴力改變了局面。如果是人類這麼做,你會說他們感到沮喪。那臺計算機無法正確地‘看到’積木,於是它‘打亂’了積木。” Hinton認爲,情感的本質就是對無法擁有之物的渴求。
他嘆了一口氣。“我們不能活在否認之中,我們必須面對現實。我們需要思考,如何讓AI對人類的威脅變得不那麼可怕。”
AI會變得多麼有用?多麼危險?沒有人知道。一部分原因是神經網絡太神奇了。
在20世紀,許多研究人員想構建模仿人腦的計算機。
但儘管像GPT這樣的神經網絡有數十億個人工神經元,在某種意義與人腦相似,但它們與生物大腦有着本質上的不同。
如今的人工智能存在於雲端,被安置在龐大數據中心。
在某些方面,人工智能顯得無知;而在另一些方面,它又如天才般洞悉。
它們或許已經通過了圖靈測試——由計算機科學先驅Alan Turing提出的經典標準:如果一臺計算機能夠在對話中令人信服地模仿人類,它就可以被合理地認爲在“思考”。
然而,直覺告訴我們,駐留在瀏覽器標籤頁中的東西,不可能以我們理解的方式真正“思考”。這些系統迫使我們反思:人類的思維方式,真的是唯一值得認可的思維方式嗎?
擔憂來源於凡人計算?
在谷歌工作的最後幾年,Hinton集中精力開發更接近人類大腦思維方式的人工智能,使用模擬大腦結構的硬件。
在現今的人工智能系統中,人工神經元之間的連接權重是以數字形式存儲的,彷彿大腦在爲自己做記錄。然而,在人類真實的類比大腦中,權重直接體現在神經元之間的物理連接中。Hinton 致力於通過專用計算芯片來創建這一系統的人工版本。
Hinton 將這種方法稱爲“凡人計算”。
如果能實現,那將是極其驚人的。這些芯片能夠通過調整它們的“電導”來進行學習。由於權重會被整合到硬件中,無法從一臺機器複製到另一臺機器,每個人工智能系統都必須獨立學習。但這會使功耗從兆瓦級降低到三十瓦。
由此帶來的一個好處是鼓勵個性化:因爲人類大腦只需通過消耗燕麥粥等簡單食物就能運轉,世界可以支持數十億個各不相同的大腦。每個大腦都能夠持續學習,而不是像當前的人工智能那樣,在一次訓練後被推向世界。
Hinton說,在數字智能中,如果某臺計算機死亡,相同的連接權重可以被轉移到另一臺計算機上。甚至如果所有數字計算機都毀壞了,只要你保存了這些連接權重,你就可以製造另一臺數字計算機並在其上運行相同的權重。成千上萬個神經網絡可以同時學習成千上萬件不同的事物,然後共享它們所學的知識。
這種永生和可複製性的結合讓Hinton覺得“我們應當警惕數字智能取代生物智能的可能性”。
當前的人工智能技術在物理邊界處常常顯得笨拙無力。
比如LeCun 表示,任何一個青少年都能在大約20個小時的練習中學會開車,幾乎不需要監督;任何一隻貓都能跳過一連串的傢俱,爬到書架的頂端。今天的人工智能系統在這些方面無一接近完成,除了自動駕駛汽車——但它們過度設計,要求“將整個城市繪圖,數百名工程師,成千上萬小時的訓練”。因此,解決物理直覺的這些棘手問題將成爲未來十年的主要挑戰。
Hinton 認爲,對人工智能潛力的懷疑往往源於人類無端的優越感。研究者們抱怨人工智能聊天機器人“幻覺”,即在面對無法解答的問題時編造出貌似合理的答案。對此,Hinton 不認同“幻覺”一詞。
他說:我們應該說“虛構”。“幻覺”是指你以爲有感官輸入——聽覺幻覺、視覺幻覺、嗅覺幻覺。而只是編造事情,那是“虛構”。有趣的是,在人類看來,編造和說實話之間沒有界限。說實話只是正確地編造。從這個角度來看,ChatGPT的編造能力是一個缺陷,但也是其類人智能的標誌。
Hinton經常被問是否後悔自己所做的工作。他回答並不後悔。
畢竟當他開始研究時,沒人覺得這項技術會成功;即使它開始成功,也沒有人想到它會那麼快。正是因爲他認爲人工智能是真正的智能,他期望其將在許多領域做出貢獻。
雖然,他也同樣擔憂人工智能的未來。