AI 或成獨立自我創造技能路上的“絆腳石”
人工智能(AI)的興起不僅給技術以及它所帶來的大量可能性帶來了問題,也給道德、倫理和哲學帶來了問題。引入這項新技術,不僅對健康、法律、軍事、工作性質、政治等方面產生影響,甚至對我們自身的身份也有影響——究竟是什麼讓我們成爲人類,我們又如何實現自我認知。
《“AI 道德”》(牛津大學出版社,2024 年),由英國哲學家大衛·埃德蒙茲編輯,這是一本出自“哲學工作隊”的論文集,探討了 AI 將會如何極大地改變我們的生活以及它所引發的道德困境,描繪出了一幅令人沉浸其中的、有關令人欣喜的原因和令人憂慮的原因的圖景。在這篇節選中,穆里爾·勒恩伯格,蘇黎世大學技術和 AI 倫理方面的博士後研究員,重點關注了 AI 已經如何在塑造我們的身份。
她的文章,題爲“你應該讓 AI 告訴你你是誰以及你應該做什麼嗎?”解釋了主導當今數字平臺——從社交媒體到約會應用程序——的機器學習算法可能比我們自己更瞭解我們。但是,她認爲,我們能相信它們爲我們做出最好的決定嗎,這對我們的能動性意味着什麼?
你的手機及其應用程序對你瞭解很多。你在跟誰交談、與誰共度時光,你去了哪裡,你喜歡什麼樣的音樂、遊戲和電影,你的模樣,你讀了哪些新聞文章,你覺得誰有魅力,你用信用卡買了啥,還有你走了多少步。這些信息已經被用來向我們推銷產品、服務或政客。在線痕跡使像谷歌或臉書這樣的公司能夠推斷出你的政治觀點、消費偏好、你是否是尋求刺激的人、是否是寵物愛好者、是否是小僱主、你很快成爲父母的可能性有多大,甚至你是否可能患有抑鬱症或失眠症。
隨着人工智能的運用以及人類生活的進一步數字化,人工智能有可能比你自己還了解你,這已不再是難以想象的事。
人工智能系統生成的個人用戶畫像,在描述其價值觀、興趣、性格特徵、偏見或者精神障礙等方面,可能比用戶自身的描述更精準。
實際上,技術已經能夠提供連個人自己都不知道的個人信息。尤瓦爾·赫拉利的說法雖有些誇張,但也提出了類似觀點。他聲稱,選擇由人工智能推薦的伴侶、朋友、工作、聚會和住所將會變得合理且自然。
人工智能將能夠把有關你的大量個人信息,與有關心理學、人際關係、就業、政治和地理的一般信息相結合,並且在模擬這些選擇的可能場景方面會表現得更出色。
因此,似乎一個能讓你知曉自己是誰以及應該做什麼的人工智能很棒,不僅在赫拉利所說的極端情形下是這樣,對於常見的推薦系統和數字畫像而言也是如此。但我想提出兩個原因來說明爲何並非如此。
你怎麼知道是否能信任一個人工智能系統?你怎麼能確定它真的瞭解你併爲你做出好的推薦?想象一下,一個朋友告訴你,你應該和他的表妹亞歷克斯約會,因爲你們倆是絕配。在決定是否去見亞歷克斯時,你會思考你的朋友是否值得信任。你可能會考慮你朋友的可靠性(他現在是不是喝醉了,思維不清晰?)、能力(他對你和亞歷克斯瞭解多少,他在判斷戀愛相容性方面有多好?)和意圖(他是希望你快樂,還是想騙你,或者只是想在晚上擺脫他那無聊的表妹?)。爲了確定是否應該聽從朋友的建議,你可能會溫和地詢問他:他爲什麼認爲你會喜歡亞歷克斯,他認爲你們倆有什麼共同點?
這已經夠複雜了。但對人工智能的信任判斷則更爲複雜。很難弄明白人工智能到底對您的哪些情況有所瞭解,以及其提供的信息可信度怎樣。許多人工智能系統都被證實存在偏見,比如說,它們會從訓練數據裡重現種族和性別方面的偏見,所以咱們最好別盲目相信它們。通常,我們無法要求人工智能解釋其推薦,也難以評估其可靠性、能力和開發者的意圖。人工智能進行預測、特徵描述和做出決策所依靠的算法,通常屬於公司的財產,用戶沒法獲取。即使這些信息可用,也需要高度的專業知識才能理解。那些購買記錄和社交媒體帖子如何轉化爲性格特徵和政治偏好?由於一些人工智能系統存在被廣泛討論的不透明性或“黑箱”性質,就算是精通計算機科學的人,可能也沒法把人工智能系統完全搞懂。人工智能生成輸出的過程在很大程度上是自我導向的(意味着它在不遵循開發者設計的嚴格規則的情況下生成自己的策略),並且難以或幾乎不可能解釋。
即使我們有一個相當值得信賴的人工智能,第二個倫理問題仍然存在。一個告訴你你是誰以及你應該做什麼的人工智能是基於這樣一種想法,即你的身份是你可以發現的東西——你或人工智能可以獲取的信息。你真正是誰以及你應該如何度過你的一生,可以通過統計分析、一些個人數據以及關於心理學、社會制度、關係、生物學和經濟學的事實來獲取。但這種觀點忽略了一個重要的點:我們也選擇我們是誰。你可不是你身份的被動承受者,而是積極、動態地去創造它。你發展、培育和塑造你的身份。這種身份的自我創造方面在存在主義哲學中一直處於前沿和核心地位,讓 - 保羅·薩特就是一個例子。存在主義者否認人類是由任何預先確定的本性或“本質”所定義的。沒有本質的存在總是會變成與今天的你不同的人。我們在不斷地創造自己,並且應該自由和獨立地這樣做。在某些事實的範疇內,比如你出生的地方、你的身高、你昨天跟朋友說的話,你完全有自由,並且從道德層面來講,需要構建屬於自己的身份,並且明確對你有意義的東西。至關重要的是,目標不是挖掘出唯一正確的存在方式,而是選擇你自己的、個人的身份並對其負責。
人工智能能夠給您提供外在的、量化的視角,它能像一面鏡子一樣,並且給您建議行動的方案。但您應該掌控並確保對自己是誰以及如何生活負責。人工智能可能會陳述很多關於您的事實,但您的工作是找出它們對您意味着什麼以及您如何讓它們定義您。對於行動也是如此。您的行動不僅僅是尋求幸福的一種方式。通過您的行動,您選擇您是什麼樣的人。盲目跟隨人工智能意味着放棄創造自己的自由並放棄對自己是誰的責任。這將構成道德上的失敗。
最終,依賴人工智能來告知你是誰以及你該做什麼,這或許會阻礙獨立自我創造所必需的技能。
倘若你持續借助人工智能來尋覓你喜愛的音樂、職業或者政治候選人,你最終或許會忘卻如何自行完成這些事。
人工智能不僅可能在專業層面令你喪失技能,而且在個人追求自我創造的親密進程中也會這樣。
在生活中做出恰當的選擇,並塑造一個有意義且能令你愉悅的身份,乃是一項成就。
將這種權力分包給人工智能,你會逐漸對自己的生活喪失責任,最終連自己是誰也不再負責。
很難知曉是否以及何時能信任人工智能的分析與推薦系統。
更爲重要的是,把決策分包給人工智能,你或許無法達到創造自身並對自己負責的道德要求。
在此過程中,你可能會喪失自我創造的技能,讓你的身份變得僵化,並且把對自身身份的控制權拱手讓給公司和政府。
在涉及你身份的最爲重要的決策和特徵的情形下,這些擔憂尤其沉重。
但即便在更爲平常的情況下,時不時地將推薦系統擱置一旁,在選擇電影、音樂、書籍或者新聞時更加積極且富有創造力,也是不錯的。
讓自己接觸與當下的你並非完全一致的影響和環境,你便能獲得發展。
搬到一個令你不快的城市可能會打亂你平素的生活節奏,並促使你,比方說,去尋覓一個新的愛好。
不斷依賴人工智能推薦系統可能會使你的身份僵化。然而,這並不是推薦系統的必然特徵。理論上,它們可以被設計成拓寬用戶的視野,而不是通過向客戶展示他們已經喜歡的東西來最大限度地提高參與度。但在實踐中,它們並不是這樣運作的。