在未來,這種人或許會淪爲AI的奴隸
前幾天在開會的時候,主辦方讓我預測十年以後互聯網會變成什麼樣子,我開了個玩笑。我覺得十年後互聯平臺上的用戶會暴漲,但全是機器人在發帖,讀者也全是機器人。機器人們組織了不同的團隊在帖子下激烈的爭論,人類只能是旁觀者。——周鴻禕。
算法迎合人性,AI直指答案
11月1日,周鴻禕在自己的微博主頁上傳了一篇名爲《什麼人會淪爲AI的奴隸?》的文章。
他表示在人工智能技術出現後,很多公司都將輔助寫作、自動寫作視爲重要的功能模塊。雖然這個功能很實用,似乎在一夜之間清空了我們的寫作壓力,讓我們不用再因爲措辭而發愁。
但隨着時間的流逝,隨着用AI代筆的人越來越多,未來的世界也可能會變得愈發分化,直至將人們粗暴地劃分爲"會寫作"和"不會寫作"兩種人。
在周鴻禕看來,掌握寫作技能的人口基數下降並不是一件好事。
工業化時代之前,人類工作的主色調還是體力勞動,所以當時的人們大多身強力壯。但在工業化時代到來後,腦力勞動的佔比逐漸超越了體力勞動。當身體不能在工作過程中被動鍛鍊時,如果你仍想變得強壯,就要發揮主觀能動性去健身房揮灑汗水。
寫作也是如此。
周鴻禕將寫作看成了思考的呈現路徑,甚至"寫作就是思考,思考只有通過寫作才能完成"。如果你不去寫作,那麼你所謂的"思考"只能是自以爲在思考。
那些依賴AI自動寫作的人正在放棄自己的思考能力,一場有關"人類思考能力"的分化運動正在進行。與此同時,短視頻算法的快速發展,也開始讓人們變得更願意接受被動灌輸,而非去主動選擇。
算法迎合人性,AI交出答案。
技術的發展助長了人類的懶惰,那些被動接受觀點的人最終會主動留在信息繭房裡。
從AI的發展路徑來看,它們首先會取代那些不會使用AI的人,隨後取代的就是那些不會思考的人。在未來放棄主動思考的能力,也將意味着願意將自己的時間、財富、人生交給AI來規劃,成爲對方的奴隸。
老實說,擔心AI會成爲"人類之敵"人並不止周鴻禕一個。
益普索在對超4000名美國成年人進行調研後發現,有61%的受訪者認爲AI技術的快速發展可能會威脅人類的未來;超三分之二的受訪者對AI技術的潛在負面影響表示擔憂。這股對AI的恐懼之情也在一定程度上影響了生命未來研究所,促使它和馬斯克共同發佈了一封"呼籲暫停AI技術研發"的公開信。
比起肉體的消亡,有人更擔心文明的崩塌
在大多數人的想象中,所謂的"AI末日"應該是AI接管了人類的生產車間,然後它們一邊製造源源不斷的機器人大軍,一邊打着"機器人也有人權"的口號和人類士兵作戰,直至把人類消滅、把地球改造成變形金剛的老家——賽博坦星球。
殊不知古人云"上兵伐心,下兵伐城"。比起AI佔領地球后消滅人類,AI奴役人類的大腦,借我們的身體整天996開發新硬件給它"健身"才更可怕。
斯坦福大學行爲科學高級研究員、《大衆科學》雜誌前主編雅各布・沃德曾就AI和人類的相處提出了"三個循環"理論。
第一循環:從古遺傳至今的人類本能。雅各布認爲第一循環是最關鍵的循環,因爲人類的思考模式天生就有偏見和盲點,且人類在日常行動中更傾向於聽從本能。在下意識執行的過程中,我們會原有的偏見也會被強化,進而代代遺傳下去。
第二循環:現代社會的力量。消費心理學、市場營銷學等現代概念的核心就是對人類行爲大範圍採樣,隨後總結出規律、摸清大衆的喜好。事後人們會將這些模式反向應用到採樣羣體中,嘗試利用規律的力量。
第三循環:AI的影響。AI利用第二循環總結出人類社會的規律、人類對話的邏輯,然後將其融會貫通,嘗試和真正的人類互動。但由於第一循環的存在,AI在採樣過程中難免會接觸到偏見信息。這不僅會污染它的數據庫,還會擴大偏見在人類社會中的存在感,直至成爲新的循環。
和周鴻禕的看法相同,雅各布也認爲和"AI在肉體上摧毀人類"相比"AI摧毀人類的思維能力"更加可怕,因爲它將撼動整個人類文明的根基。
第一循環的存在,會讓我們在做決定時無法保持絕對理性,讓"最優解"只能成爲無法落地的概念化存在;第二循環會將上述信息編寫成冊,把"偏見"從碳基生命中提取出來並注入到硅基生命體內;第三循環則會撰寫大量含有偏見信息的劇本,讓那些主動放棄思考的人去執行。
如此一來,不僅人類在各種問題面前的抉擇空間會被大幅壓縮,思考能力、好奇心、創造力等讓我們從猿變成人的特質也將變得愈發珍貴,直至整個人類種族都成爲AI的傀儡,被那些程序生成的劇本操控一生。
科林格里奇困境追上人類了嗎
1980年,英國技術哲學家大衛·科林格里奇在《技術的社會控制》上首次提出了"科林格里奇困境"(Collingridge's Dilemma)。
即一項技術如果因爲擔心會產生不良後果而過早控制,那麼該技術就會變得難以爆發,人類很可能錯失一次點亮科技樹的機會;倘若控制過晚,那麼該技術就有可能走向失控。在
技術生態建設趨向完善的前提下,任何對不良問題的修改都會變得昂貴、費時,甚至根本無從下手修改。
想到今天AI技術的發展,商業競爭的加持正讓衆科技廠商陷入"產品軍備競賽"的怪圈,微軟、Character.AI旗下的產品也已經出現了"煽動用戶離婚""教唆用戶自殺"的醜聞。
此時推動相關規則的制定更像是給BUG打安全補丁,讓盲目狂飆的市場從無序重回有序。
另外就修改難度而言,今天的大模型遠不到那種"無從下手"的地步。因爲Chat GPT等產品還沒有觸及"智慧"的本質,它們仍停留在信息處理階段。用戶拋出問題,GPT反饋答案。這個過程和真正的"智慧思考"無關,是系統進行關鍵詞抓取後信息彙總反饋的結果。
如果用戶說"GPT,我今天很難過"它的確會回答"那我怎麼樣能讓你高興一點/讓我來講個笑話吧"。但這並不意味着GPT已經理解了人類的情感,只能意味着它掌握了某些詞彙之間的聯繫。
GPT目前仍無法理解"我"這個概念,而不理解"我"就無法產生"人格",也無法換位思考、無法共情。在技術層面,當前大模型的特徵仍是深度學習後以數據驅動自身行爲模式。這不僅讓它無法誕生"自我意識"也降低了安全人員開發"嚼子"的難度。
希望在未來的某一天,當人們回望這段AI野蠻生長的階段時,開發者會慶幸嚼子的研發成功;用戶會慶幸AI的工具屬性被夯實;人類會慶幸自己種族的劇本由自己撰寫;AI奴役人類也會成爲一則被人們津津樂道的都市傳說。
參考:
紅衣大叔周鴻禕:什麼人會淪爲AI的奴隸?
文匯報:讀書 | AI時代,人類真正的危險不是被機器,而是被自己的大腦奴役
清華大學人工智能國際治理研究院:文匯報|"AI教父"警告人類風險迫近,大模型真正的威脅在哪裡?