自駕車上路 該面臨的終極道德問題

《21世紀汽車革命:電動車全面 啓動,自駕車改變世界》作者/馬里奧·赫格出版社/星出版

QR Code

年度財經好書揭曉工商書房熱門文章

在有關機器人的疑問中,我們比教宗更像天主教徒,根本就無法接受機器人的不道德行爲,它們必須是完美的。我們能夠勉強接受他人的這種行爲,若我們自身展現出不道德的行爲,也會予以合理化,使它變成非不道德的行爲。

人們認爲,機器是人類創造出來的,工程師應該進行適足的測試與編程,不能出錯。基於機械論的世界觀,這種態度持續了很長的時間。但在使用人工智慧與神經網路下,機器變得更像人,會學習、必須累積經驗,作決策的方式近似人類直覺。AlphaGo下的那一手棋,令圍棋界爲之瘋狂,被圍棋專家們視爲純憑直覺。

道德疑問也許該朝另個方向:我們該如何分類機器人及自駕車?應該把它們視爲獨立的法律實體嗎?是否接受它們可能犯錯、也會沮喪,擁有一定的權利,可以接受處罰?歐洲議會顯然這麼認爲,一項民法草案中包含明確提案對機器人的分類,視機器人爲具有種種權利及義務的法律實體。

由於我們在機器人這個領域是新手,過去的立法可能不足,所謂「無法不成罪」,當沒有可以援據的法律時,便改以倫理道德爲憑藉。理想上,法律、道德及倫理將總是趨同,但現實總是與理想不同。何謂「正確」的決定,爲什麼?雖然這類問題似乎很有趣,但在我們嘗試接受自駕車的潛力時-減少交通事故;爲以往的弱勢族羣提供更便利的移動力;減少路上的車輛數目,進而減少對交通基礎設施的需求,這類問題不是很有幫助。

我們先預期的似乎總是新技術帶來的危險。媒體總是傾向側重負面及潛在的危險,我管理的一個臉書專頁蒐集了德語系媒體的文章及論述,可以明顯看出自駕車的危險及風險如何被誇大。操弄人們的恐懼-這種策略譁衆取寵的效果較佳,能夠吸引更多點擊,賣更多廣告,但長期而言,破壞了公正客觀看待新發展。

在德國雜誌《線上明鏡週刊》(Spiegel Online)刊載的一篇探討人工智慧的文章中,人工智慧科學家尤爾根·施密胡伯(Jurgen Schmidhuber)首先被問到,我們是否該擔心人工智慧的潛在危險?

施密胡伯立刻直言不諱:我知道,你們不想跟我討論人工智慧和人工神經網路已經能夠幫助數十億人,例如:透過更高階的智慧型手機,自動作出早期癌症診斷。你們比較感興趣於中程未來的潛在危險。

概括地說,這就是社會與政壇面臨的問題-我們只討論新技術的危險性,從不討論新技術的潛力。最終,我們往往發現,風險已不再切題,因爲新技術概念早以不同方式實行了。比起想以創造力來改變世界的理想主義者,批評者/警告者/否定論者的角色,似乎使我們顯得更有智慧。哈佛大學教授泰瑞莎·艾默伯(Teresa Amabile)探索這種思維,證明它的存在。她給學生看兩篇書評,一篇傾向好評,另一篇是批評,然後她請學生評價這兩個書評人的智慧。結果,學生評價那個負評者的智慧較高,但他們不知道的是,這兩篇書評其實都是艾默伯寫的。所以,艾默伯必須自行解答「誰更有智慧」的疑問。

當然,「電車問題」之類的情況必須仔細分析,採取適當對策。但用它來作爲反對自駕車的主要論點,既危險也不負責,這種討論通常源自不夠公允的動機。真正重要的辯論主題應該是別的,例如:當自駕車要超越單車騎士時,應保持多遠的距離?側向保持3英尺的距離可被接受嗎(雖然事故發生的可能性高於保持6英尺)?但這麼一來,自駕車就會開到對向車道,危及對向交通。或者,爲了和單車騎士保持足夠的距離,必須稍微佔用對向車道,導致對向交通受阻,這可以被接受嗎?

更多摘文詳見:

bit.ly/3sIbSMc