約瑟夫·奈:人工智能風險管控須加快步伐

參考消息網8月5日報道 世界報業辛迪加網站7月31日刊發題爲《人工智能與國家安全》的文章,作者是美國哈佛大學肯尼迪政府學院前院長約瑟夫·奈。文章摘編如下:

衆所周知,技術的發展速度要快於政策或外交,尤其是在私營部門激烈的市場競爭推動下。但涉及應對與當今人工智能相關的潛在安全風險,政策制定者需要加快步伐。

許多科學家將人工智能視爲具有變革意義的工具。像過去出現的通用技術一樣,人工智能具有巨大的潛力,既可以爲善,也可以作惡。在癌症研究中,人工智能在幾分鐘內整理和總結出來的研究成果,多於人類團隊需要幾個月才能完成的工作量。同樣,人工智能可以可靠地預測蛋白質摺疊的模式,同樣的工作,人類研究人員可能需要好幾年才能完成。

但人工智能也降低了不合羣者、恐怖分子和其他可能希望造成傷害的不良行爲者的成本和門檻。美國蘭德公司最近的一項研究警告,“復活類似天花的危險病毒,邊際成本可能只需要10萬美元,而開發一種複雜的疫苗,邊際成本可能超過10億美元”。

此外,一些專家擔心,先進的人工智能將比人類聰明得多,以至於人工智能將控制我們,而不是我們控制人工智能。如今狹義的人工智能帶來的風險越來越大,已經需要更多的關注。

40年來,美國阿斯彭戰略研究集團每年夏天都會召開會議,集中討論一個重大的國家安全問題。過去會議的主題包括核武器、網絡攻擊和中國的崛起。今年,我們關注的是人工智能對國家安全的影響,探究人工智能的好處和風險。

人工智能的好處包括能夠更好地整理大量的情報數據,加強預警系統,改善複雜的後勤系統,還有檢查計算機代碼以提高網絡安全。但也存在很大的風險,比如自主武器的進步,編程算法的意外錯誤,以及可能削弱網絡安全的對抗性人工智能。

自主武器構成的威脅尤爲嚴重。儘管在聯合國進行了十多年的外交工作,各國還是未能就禁止致命的自主武器達成一致。國際人道主義法律規定,各國軍隊需要區分對待武裝戰鬥人員和平民,五角大樓長期以來一直要求,在發射武器之前,必須有人類參與決策過程。但在某些情況下,比如防禦來襲的導彈,就沒有時間讓人類干預。

考慮到事情發生的背景很重要,人類必須(在代碼中)嚴格定義武器能做什麼,不能做什麼。換句話說,應該保證“決策過程本身”由人類決定,而不僅僅是“在決策過程中”有人類參與。這不是一個單純的假設問題。在烏克蘭戰爭中,俄羅斯方面干擾了烏克蘭軍隊的信號,迫使烏克蘭方面給設備編程,讓武器自主決定何時開火。

人工智能最可怕的危險之一是在生物戰或生物恐怖主義中被使用。當各國在1972年同意禁止生物武器時,人們普遍認爲生物武器沒有用,因爲有“反撲”自己的風險。但有了合成生物學,就有可能研製出能摧毀一個羣體而不影響另一個羣體的生物武器。或者,假如有個能使用實驗室的恐怖分子,他可能只是想殺死儘量多的人,就像1995年發生在日本的東京地鐵沙林毒氣恐襲事件。(他們當時使用的是沙林毒氣,不具有傳染性,但現代的恐怖分子卻可以利用人工智能製造傳染性病毒。)

在覈技術方面,各國於1968年達成《不擴散核武器條約》,目前已有191個締約國。國際原子能機構定期檢查各國國內的能源項目,以確認這些項目僅用於和平目的。儘管冷戰時期競爭激烈,但核技術方面的主要國家仍一致同意,對最敏感的設施和技術的出口實行限制。儘管人工智能與核技術之間存在明顯差異,但核技術的先例爲人工智能指明道路。(編譯/胡雪)