時間已經開始倒數

AI人工智慧最新浪潮—停不下來的列車(博碩出版社)

在盤點先前三大問題之後,答案已經清楚浮現。

一、人工智慧已經或是將會具備自我意識,同時也會用欺騙的方式達成自己的目的。

二、機器人大軍再過幾年就可以整裝待發,統一由人工智慧代爲指揮。

三、中國的「戰顱」和美國的「梅文智能系統」再發展下去,恐怕就會成爲另外一個「天網」。

當終結的時刻已經進入倒數階段,許多人一定會問,我們究竟該怎麼辦呢?

2023年3月,馬斯克以及人工智慧領域的科技領袖、研究人員和學者專家共計1,300人透過非營利組織「未來生命研究所」發佈了一封公開信,呼籲各國政府正視人工智慧發展可能對人類所帶來的風險,應該暫時停止或放緩人工智慧更進一步的研究發展。連署名單中包含了許多重量級人士,例如:蘋果聯合創辦人沃茲尼克(Steve Wozniak)、「AI教父」班吉歐(Yoshua Bengio)和Stability AI執行長莫斯塔克(Emad Mostaque)。

接下來,另外一封呼籲各國政府重視人工智慧對人類生存威脅的公開信又發出。引起外界高度關注的是這一次三大生成式AI領域的科技公司,包含:OpenAI、DeepMind(Google)和Anthropic,都名列其中。這一份公開信由350位人工智慧領域的頂尖人士共同連署,並且交由總部位於舊金山的非營利組織「AI安全中心」發佈。

2024年中旬,OpenAI一部分負責安全研究的人員選擇了離職,這一則消息立刻引起了科技圈的關注。據瞭解,這一波離職潮是因爲OpenAI在通用人工智慧的開發工作走得太快又太遠,以致於公司內部負責AI安全的人員憂慮人類是否能夠應對隨之而來的挑戰。

事實上,OpenAI的聯合創始人John Schulman以及知名的首席科學家Ilya Sutskever因爲無法接受OpenAI在過度追求人工智慧發展升級的過程中忽略了重要的安全問題,所以相繼選擇離職,John Schulman投入了競爭對手Anthropic,而Ilya Sutskever則與另外兩位夥伴Daniel Gross與Daniel Levy成立了「人工智慧安全實驗室」,致力於人工智慧的安全發展,希望能夠發展「安全的超級智能」。

當數量如此衆多人工智慧開發者、研究者和信仰者紛紛以各種方式提出警訊時,最主要的原因應該是他們逐漸發現,人工智慧已經開始由一個根據既有資訊進行理解和分析的預測者,逐步轉型成爲一個對於現實世界可以產生自我認知的理解者。這是一個從學習到模仿,再到認知,最後到理解的過程。在這麼短的時間之內,產生了如此大的轉變,怎麼會不令人驚訝和不安呢?

數年前, 人工智慧仍然處於「窄人工智慧」(Artificial Narrow Intelligence, ANI)的階段,沒多久就迎來了「生成式人工智慧」(Generative AI)的時代,緊接着「通用型人工智慧」(Artificial General Intelligence, AGI)的時代也近在眼前。而如今,大家在談論的已經是「超級人工智慧」(Artificial Super Intelligence, ASI)。

未來,在人工智慧比人類更聰明的情況下,如果當人類和人工智慧對某一個事件做出了不同的理解和判斷時,究竟該採納誰的觀點?這就像許多電影中的情節一樣,當人工智慧判斷人類已經成爲地球生存和發展最大的威脅時,人工智慧究竟應該坐視人類繼續殘害生態、互相屠殺,還是應該選擇大規模消滅部分人類,讓地球得到喘息的空間,同時讓倖存的少數人類能夠有一個更爲健康的生存環境呢?

雖然還有一部分AI領域的學者專家,包含李飛飛、吳恩達和楊立昆(法語:Yann LeCun),並不認同所謂的「AI威脅論」。他們認爲人工智慧的發展目前還沒有到對人類會造成威脅的時刻。

就算現在還沒有,但是未來呢?不可否認的是,人工智慧終將具備自我意識;人工智慧將會比人類更聰明;人工智慧已經學會欺騙;人工智慧已經被毫無限制的投入軍工產業。

這並非是一個無法改變的悲慘命運,但是我們必須從現在開始做一點什麼。對人工智慧投入軍事戰爭用途的使用,必須在全球共識的情況下加以限制,就如同人類先前爲了避免爆發核子戰爭而限制核武器與核技術的擴散一樣。特別是要限制人工智慧掌握戰爭機器的決策權,人類必須要牢牢的握住主導權,而不僅僅只是一個監督的角色。(三之三;摘自《AI人工智慧最新浪潮》)