全球第一個聊天機器人是怎樣誕生的?

2.20

知識分子

The Intellectual

圖源:pixabay

撰文丨張天蓉

近幾年,ChatGPT一類的聊天機器人風靡一時,受到公衆的空前關注。那麼,你知道歷史上的第一個聊天機器人是誰發明的?又是哪年發明的呢?它的功能如何?造成了多大的影響?

這些問題把我們帶回到 20 世紀 60 年代中期。當然,我們指的是聊天機器人[1],如果說到更廣泛的人工智能思想,要開始得更早的多。

ELIZA橫空出世

誰是ELIZA?如果你看過美國好萊塢1964 年的電影《窈窕淑女》,那裡面女主角的名字就叫ELIZA,全名伊麗莎·杜立德 (Eliza Dolittle)。這部片子贏得了包括最佳影片在內的8項奧斯卡大獎,扮演主角的演員赫本,更是粉絲無數家喻戶曉!

奇怪了!這和聊天機器人有什麼關係呢?且聽我們慢慢道來。

正值電影《窈窕淑女》從好萊塢橫空出世,在全美國票房爆滿之時,東部的麻省理工學院(MIT),有一位科學家維森鮑姆,卻沒日沒夜地對着計算機,正在苦苦思索一個問題。

那個年代,是計算機技術蓬勃發展的年代,自從1947年晶體管被髮明出來後,計算機的功能迅速增強,體積逐年縮小。1964年, IBM公司宣佈用System/360取代早前的計算機。這是一個里程碑式的轉換,使用IBM固態邏輯技術,將製造過程標準模塊化,成功地涵蓋了廣泛的功能和價格。當時也是美國西岸硅谷的精英們剛剛研製成功了集成電路,正準備大規模推廣應用之際。

看見計算機硬件的巨大變化,維森鮑姆思考着另一種可能性:是否有可能實現圖靈關於人工智能的想法?圖靈1950 年在他的題爲“ 計算機械與智能 ”的論文中提出,如果一臺計算機可以通過文本與人類進行令人信服的對話,則可以認爲它是智能的,這一思想也是著名的圖靈測試的基礎。維森鮑姆想,不管叫不叫智能,首先要實現的是“人類和機器的對話”,也就是說,需要機器懂得人類的語言。

維森鮑姆要做的,就是我們現在稱爲NLP(自然語言處理)的問題。

圖1:維森鮑姆發明第一個機器聊天人ELIZA

當時已經存在一些基本的數字語言生成器,用戶可以使用打字機輸入人類的自然語言,然後獲得機器的響應,機器可以輸出一些連貫的文本。然而,並沒有一個明確設計用於與人互動的程序,這便是維森鮑姆當時的夢想。

說幹就幹,維森鮑姆使用(並改進)了一種名爲 MAD-SLIP 的專有編程語言,自己來創建了一個程序。特別令人高興的是,程序雖簡單效果卻不錯。因此,兩年之後的1966年,維森鮑姆推出了世界上第一個聊天機器人ELIZA。

想必維森鮑姆太忙了,沒有時間去看電影,所以,他以蕭伯納 1913 年戲劇《皮格馬利翁》中的虛構角色爲名,將他的“機器對話程序”命名爲“ELIZA”。而好萊塢的《窈窕淑女》這部電影,就是由《皮格馬利翁》改編而來,女主角的名字是一樣的:ELIZA。

維森鮑姆如何設計ELIZA?

約瑟夫·維森鮑姆(Joseph Weizenbaum,1923-2008)出生於德國柏林一個猶太家庭,12歲時與家人一起逃離納粹德國來到美國。他本科學數學,一年後中斷學業加入美國陸軍航空隊,但因他的德國原籍,被拒絕加入密碼學工作。戰後他取得了數學學士學位,迷上了計算機。1955年,維森鮑姆協助通用電氣設計了第一臺用於銀行業的計算機。他1964年在MIT得到教授職位後,開始探索計算機與普通人進行英語交互的可能性,這在當時是很難令人想象的。

基於當時計算技術的水平,維森鮑姆認爲,實現人機之間對話的最佳方式是模仿精神分析的方法,即利用重複結構,讓程序重複單詞並重新表述以問題形式給出的陳述。因此,他1966年發表的聊天機器人ELIZA,只不過是一個簡單小程序,可以在36比特架構的IBM 7094計算機上運作。執行過程中,ELIZA通過分析輸入的文字內容,將特定字句重組,變成全新的字句輸出。程序只有200條左右的代碼,通過一個名爲DOCTOR的腳本,可以以極類似心理學家的方式與人類交談。

維森鮑姆設計ELIZA時,模仿羅傑式心理醫生與病人的對話風格以一問一答的方式獲得有趣的的對話互動,有人將此稱爲“狡猾策略”。

圖2:維森鮑姆用“狡猾策略”設計ELIZA的對話

所謂“羅傑斯治療”,是50年代出現的一種“以人爲本的心理諮詢” 方式,與傳統的心理治療相反,醫生不以權威或專家自居,而像一個有專業知識的夥伴或朋友,與病人建立融洽的關係,使病人產生信任感。也稱爲“非指令性治療”,即治療者不對病人發出指令,也不下診斷,而是耐心傾聽病人的陳述,通過重複病人所說的話,對病人陳述中的情感作出反響,以便讓病人儘量表達和暴露自己,使病人逐漸有所進步。

因此,爲了鼓勵用戶與機器對話,維森鮑姆使用“狡猾策略”設計對話風格。雖然ELIZA的出現已經是將近60年之前的事情,與如今的ChatDPT不可同日而語,但看看她的對話方式,也挺有趣的,也許對我們深刻理解ChatDPT的原理,還會有所啓發。

示例如下,ELIZA與瑪麗(人類)的簡短交談:

瑪麗:男人都是一樣的。

ELIZA:怎麼說?

瑪麗:他們總是用一些事情來打擾我們。

ELIZA:你能給一個具體例子嗎?

瑪麗:嗯,是我男朋友讓我來這裡的。

ELIZA:是嗎,你男朋友讓你來這裡?

瑪麗:他說我經常很沮喪和鬱悶。

ELIZA:聽說你沮喪和鬱悶,我很遺憾。

瑪麗:確實如此。我不開心。

ELIZA:你經常不開心,不快樂嗎?

瑪麗:以前不是,近來幾個月……

ELIZA:近來幾個月?發生了什麼?

瑪麗:……………(瑪麗更多的傾述)

或許以你的眼光看,這機器人什麼也沒說,確實如此。當測試人給出問題描述時, ELIZA所做的不過是利用信息抽取技術和語言處理方法,提取幾個關鍵詞,然後將這些關鍵詞組合成一個問題,作爲答案來回應。ELIZA並不需要真正理解輸入和輸出的含義,但她的反應往往能夠給人一種“具有智能”的錯覺。

對某些人而言,這機器很“善解人意”,同情對話人的處境,比如例子中的瑪麗,因此,她願意向ELIZA敞開心扉……。如此一來,ELIZA可以得到並且儲存起來更多的、有關瑪麗的信息,更有助於增加她與瑪麗聊天時的用語。

像“男朋友”、“沮喪”、 “母親”、“父親”這樣的詞都可以引起反應。對某些問題,ELIZA也有不知所措不知如何回答的時候,如果這樣,它可能會使用“請繼續”、“這很有趣”、“我明白了” 、“告訴我更多” ,這些含糊的詞語。直到它收到可以組合問題的更多的關鍵字。

此外,維森鮑姆ELIZA的代碼應該可以改寫成其它用途,不一定只是“心理醫生”。據他自己說,他的想法是開發一個不需要深厚知識儲備的程序。這個概念需要“對話中的一方不必知道一切,而我當時想到了一位精神病醫生。也許如果我再多想 10 分鐘,我就會想出一個調酒師。”

維森鮑姆對AI的困惑

事實上,ELIZA的對話風格非常簡單,但給人的印象卻是令人吃驚的。特別是,維森鮑姆僅用了 200 行代碼就實現了這個過程,給人一種被機器聽到了和理解了的錯覺。即使在維森鮑姆向測試人員介紹了機器聊天人的工作原理並解釋說它並不真正理解用戶所說的任何內容之後,測試人員對 ELIZA的這種親近感仍然持續存在。即便維森鮑姆的助手,她見證了ELIZA被創造出來的全過程。然而,在與ELIZA測試對話時,仍然堅持讓維森鮑姆離開房間,以便她可以與 Eliza 進行真正私密的交談。

圖3:維森鮑姆的書《計算機能力與人類理性》

諷刺的是,儘管維森鮑姆設計 ELIZA的意圖是爲了展示人機對話的狀態是多麼膚淺,但它卻產生了相反的效果。ELIZA 的消息在麻省理工學院社區迅速傳播,人們被迷住了,涌向計算機實驗室。雖然維森鮑姆經常小心翼翼地對人們解釋說,這只是一個程序,線路的另一端沒有人,但仍然有人會偷偷地花上幾個小時來與ELIZA分享親密的對話。維森鮑姆對公衆的反應感到非常不安,在隨後的1976年,他發表了一本名爲《計算能力與人爲原因:從判斷到計算》的書,維森鮑姆不相信任何機器能夠真正理解人類對話,他1977 年告訴《紐約時報》:“成爲一個人是必要的。愛和孤獨與我們生物體質的最深層後果有關。對於計算機來說,這種理解原則上是不可能的。”

維森鮑姆原來以爲,發表他對 ELIZA 內部功能的解釋將會解開人們的謎團。他寫道:“一旦一個特定的程序被揭開面紗,一旦它的內部工作原理被用足夠簡單的語言解釋以促進理解,它的魔力就會消失。” 然而,人們似乎不在乎該程序是如何運作的,對繼續對話更感興趣。

公衆完全相反地理解了維森鮑姆的意圖,把他對人機對話的膚淺展示作爲計算機深度的證明。自動化治療過程的潛力讓精神科醫生也興奮不已,人們下意識地認爲機器能與人溝通,因而對ELIZA產生了如此可靠的情感和擬人化的依戀,使維森鮑姆十分沮喪不安,他稱此爲 ELIZA 效應。維森鮑姆認爲,正是因爲當時的社會環境越來越冷漠,才讓人如此絕望,以至於拋棄了應有的理性與判斷力,轉而相信一臺機器程序能理解人類的心聲。

人們願意將程序與實際人際關係混爲一談,沒有讓 ELIZA 的發明者感到高興,而是感到困擾。結果,ELIZA 成爲了維森鮑姆的一個痛點,到 20 世紀 70 年代中期,維森鮑姆對人工智能的發展軌跡十分關注,他將餘生的注意力都轉向收集對AI的批評,批評過快地引入人類思想,過分相信智力的幻覺。

維森鮑姆也開始質疑圖靈關於人工智能的想法,他認爲對人類智能的模擬,並非智能本身,但又足以使人矇昧。維森鮑姆稱這種現象是數字時代人類的一種“妄想” ,是一種困擾現代人的廣泛病理學。圖靈測試顯然存在缺陷,一方面,該測試的結果受到主觀因素的影響,這意味着只要測試人員沒有足夠的技能和知識來評估AI系統的性能,測試結果就會不準確;另一方面,ELIZA的實踐說明,人工智能系統在指定主題上模仿人類並欺騙測試人員實際上並不困難。

ELIZA的經驗對維森鮑姆來說是一次深刻的衝擊,直接影響了他未來十年裡所做研究的思想軌跡。

書中對人們爲何願意相信“一臺簡單的機器也許能夠理解複雜的人類情感” 進行了深刻的剖析。

他認爲,在一個被科學技術佔領的世界中,社會環境日漸冷漠,人們習慣於將自己看作是一臺大機器中的齒輪(小小的螺絲釘)。因而絕望的人類纔會去相信一個機器程序可以聆聽他們的心聲。維森鮑姆的餘生都在致力於這種對人工智能和計算機技術的人文主義批評。他的任務是提醒人們 ,他們的機器並不像通常所說的那樣聰明,“即使有時好像他們會說話,但他們從未真正聆聽過你,它們只是機器。”

維森鮑姆的創作雖然具有開創性,但讓他對技術的倫理影響有了深刻的認識,使他餘生中都一直質疑創新帶來的責任以及人工智能開發中道德準則的必要性。

從ELIZA到ChatGPT

由上所述我們知道,聊天機器人的最基本原理之一是計算機的自然語言處理(NLP)能力。根據這五十多年NLP的發展,可將聊天機器人發展進程大體分爲下述幾個時期[2]。

圖4:聊天機器人的幾段歷史時期

自然語言處理的發展,一開始着重探討語言的規則,因此,早期的聊天機器人也重視從規則來產生對話輸出。然而後來,越來越多的NLP專家們認識到,自然語言除了有語法句法的種種規則之外,還有非常大的隨機性。所以,統計概率的方法被引進了這個領域,1948年,香農把離散馬爾可夫過程的概率模型應用於描述語言,之後,他又把熱力學中“熵”的概念應用於語言處理的概率算法中。兩種不同方法的存在,使得自然語言處理的研究一度分爲了兩大陣營:一個是基於規則方法的符號派(symbolic),另一個是採用概率方法的隨機派(stochastic)。兩種方法的研究都取得了長足的發展,也引發了數十年有關基於規則方法和基於概率方法孰優孰劣的爭執。

再後來,自然語言處理結合機器深度學習技術,之後由於互聯網的成功,又有了大規模語言模型,NLP及聊天機器人都到達新時代的發展高峰。以下概括幾段時期中的典型聊天機器人產品。

a:20世紀60年代和70年代,主要採用“詞典+規則”(的自然語言處理範式,以1966年的ELIZA,和 1972年斯坦福大學精神病學家科爾比的PARRY爲典型代表。二者較爲成功地實現了在英語語境下,對人類提問的關鍵詞做出特定迴應,但在人機交流過程有明顯的機械化特徵。

ELIZA使用模式匹配和替換方法來模擬人類對話,工作方式是將用戶輸入的單詞傳遞給計算機,然後將它們與可能的腳本響應列表配對。

PARRY由美國精神病學家肯尼斯·科爾比(Kenneth Mark Colby)於1972年構建,該程序模仿了一位精神分裂症患者,通過一個複雜的假設、歸因和“情緒反應”系統來工作。它試圖模擬這種疾病,是一種類似於個人思維的自然語言程序。

爲了驗證這項工作,使用圖靈測試的變體對 PARRY 進行了測試。人類審訊員通過遠程鍵盤與程序交互,無法準確地將 PARRY 與原始個體區分開來。

科爾比是一位思考計算機如何有助於理解精神疾病的精神病學家。他開始的“克服抑鬱症”項目,一直持續到他 2001 年去世。

b:20世紀90年至21世紀初,美國科學家兼慈善家休·勒布納(Hugh G. Loebner)1990年設立了勒布納人工智能獎(Loebner Prize)。在該獎項的激勵下,聊天機器人智能化進程全面提速,誕生出了基於NLP“統計模型的阿爾伯特一號(Albert One)、愛麗絲(ALICE)及埃爾伯特(ELBOT)等典型代表。其中的三次問鼎勒布納獎的ALICE,被視爲當時智能化程度最高的聊天機器人。不過她無法與人維持長時間對話,因此最終未能通過圖靈測試。

圖5:ALICE

1995 年Richard Wallace 率先構建了ALICE,是一種通用語言處理的聊天機器人,它使用啓發式模式匹配來進行對話。使用稱爲人工智能標記語言(AIML)的 XML 模式,有助於指定對話規則。

ALICE被定義爲一位年輕女性,她可以通過互聯網與人聊天。她會告訴用戶她的年齡、愛好和其他有趣的事實,並回答用戶的對話。

1998年,ALICE的程序採用 Java 編輯,2001 年根據 AIML 規範,起草了 ALICE 的免費和開源代碼。

c:21世紀初至20年代,以蘋果2010 年爲 iOS 開發的Siri、2012 年在 Google Inch 推出的Google Now、微軟2014的 Cortana、谷歌Google Assistant、亞馬遜Alexa等,服務於私人用戶的數字助理爲代表。這一時期的智能聊天機器人基於“深度學習模型”(deep learning models)的自然語言處理範式,採用語音識別與信息檢索技術,能夠爲用戶提供個性化和便捷性的服務,初步實現了人機的雙向交流。然而依舊與真實人類對話交流存在差距,不知道如何回答時,聊天機器人還可能會搜索網頁上的相關信息,給出鏈接讓用戶自行尋找。

d:21世紀20年代,以採用“預訓練+微調”(pre-training + fine-tuning)自然語言處理範式的生成式人工智能ChatGPT爲代表。

ChatGPT是 OpenAI 推出的大型語言模型。該模型基於大量數據進行訓練,使其能夠生成通常難以與人類書寫的文本區分開來的文本。ChatGPT旨在幫助用戶根據給定的輸入來生成文本,可用於包括語言翻譯和對話生成在內的多種任務。

ChatGPT及近年來各個大公司推出的新一代聊天機器人,因其生成聽起來自然的文本的能力及其在各個領域的潛在應用而受到讚譽。

超級人工智能?

如今,人工智能這個詞經常與世界末日聯繫在一起,這個領域的每一個新發展都爲羣衆所關注,都會立即在羣衆中引起震驚的反應,恐懼是自然的,這是由於我們對一切新鮮、神秘和陌生的事物的不信任,同時也是由於電影等媒體的不實宣傳,認爲人工智能將獲得超人的力量,然後,這個超級人工智能便會摧毀人類等。

但無論如何,這種說法有很多誇張的地方,人工智能似乎可以執行許多的認知任務,但以我們目前所擁有的技術能力,以我們對人類智能定義的理解以及我們對人腦工作原理的瞭解,這仍然是一個遙遠的夢想。

從ELIZA到ChatGPT,聊天機器人確實有了驚人的變化,體現了人工智能和機器學習的技術發展。ChatGPT這一代應用了神經網絡技術,它能模擬人腦工作方式,用於處理複雜的數據,這使機器能夠識別數據中的模式,理解圖像,處理自然語言,甚至可以用與人類相同的方式進行學習。

但實際上,從以上介紹的聊天機器人發展歷史,變化的不過是:從少量單詞到前所未有的海量數據,以及如今超強的數據處理能力,還有機器學習方法的巨大發展等等,並非“機器人”本質上的改變。它們仍然只是預測文本中下一個單詞和句子的機器,仍然難以產生所謂的“超級人工智能”,至今爲止,它們既沒有真正的智能,也無生物體具備的意識。

當然,任何技術都具兩面性,能做好事也能做壞事。因此,與其宣揚和關注人工智能接管世界並毀滅人類的恐懼心理,不如把注意力轉向真正迫在眉睫的挑戰,比如AI這些新技術造成的侵犯隱私、網絡欺詐、經濟利益分配等現實的社會問題。

五十多年前維森鮑姆的擔憂仍然存在,並且隨着AI的突飛猛進而變得更加重要。如今的人工智能不僅是一個學術項目,而且還涉及若干人的商業利益。設計人工智能可以賺大錢,它不僅能回答技術問題,還能改變我們的行爲以實現更大的盈利。正如維森鮑姆所看到的,如果沒有智慧和深思熟慮,人類可能會在自己扭曲的反思中迷失自我。

在當今科技高速發達的世界中,人工智能或聊天機器人的擴散速度前所未有。在這個發展的關鍵時刻,審視一下這門領域的老祖宗ELIZA的歷史,以及其創建者維森鮑姆的警告是有必要的。至少能使我們更好地理解人類正在創造什麼,它是否將反過來重新塑造人類?

參考文獻

[1]The Evolution of Chatbot Technology: From ELIZA to ChatGPT. https://en.softonic.com/articles/evolution-of-chatbot-technology.

[2]The History Of Chatbots – From ELIZA to ChatGPT. https://onlim.com/en/the-history-of-chatbots.