人類如何與AI共舞
(示意圖/達志影像)
從ChatGPT去年10月問世後風行全世界,我首先想到的是1990年代末期的電影《變人》,這部電影講述原來的機器人安德魯,不斷要求製造他的公司提升他像人類的一切,成爲主人的最好幫手,還幫主人賺了許多錢,主人覺得他太像人了,就趕走他,之後,他還獨自一個人居住了很多年,還和主人的孫女共譜戀曲。
ChatGPT活像安德魯的初版,只是它還沒有肉身而已。ChatGPT能夠風行,最主要是因爲活潑好用,不懂科技的人只要註冊,能夠輸入,甚至手寫問題,就能得到答案,它擅長梳理大量資料,歸類、分析,解答你的問題,例如輸入中美貿易衝突,他可把起源、經過、現況答案給你,你可省卻查資料的時間,最好的地方是整理碎片化的資訊,給你總體觀,在這個資訊複雜如瞎子摸象的時代,它確實是好幫手。
但是它的答案有對也有錯,使用者必須有很強的辨識能力。例如你輸入一個名人的人名,加上簡要的關鍵字,請它寫這個人的簡介,結果常張冠李戴。最新的時勢,它也無法知道,因爲作爲一個AI語言模型,它無法即時流覽和獲取新聞資訊,而且它的資料庫只到2021年9月,因此目前媒體還是會有讀者。
媒體記者或編輯可以輸進今天的新聞讓它改寫,或自動生成,因此媒體可能大量裁減記者。記者今後需要的是能解釋、分享、下判斷的新聞能力,對新聞要更能有透視力及洞見。
另外,國人引以爲難的是中翻英,尤其要將中文文件翻成英文時,很多人用Google翻,結果太中文化,外國人不知所云。但是用ChatGPT中翻英,比Google好太多,頂多改幾個字即成,這樣對要從事全球化的公司和個人都很方便。
ChatGPT的缺點是不會問問題,它只會給答案,所以指令不清楚時,它就先給你一大堆答案,很多是錯誤的,假使根據那個答案,再給它指令,就有一連串的錯誤。所以人工覈實很重要。這也是ChatGPT的危險處,只懂科技不懂資料背景的人可能誤以爲真,然後就是一連串的「錯、錯、錯」,拿去給公司、個人、國家領導人就做出錯誤的決策,可能是「莫、莫、莫」了。
有「AI教父」之稱的辛頓,最近從已工作10年的Google辭職,就是理解AI的危險性,他甚至說俄國總統普丁會拿AI機器人來贏得俄烏戰爭。辛頓爲什麼辭職?是因爲他想當個「吹哨者」, AI的快速發展已經超乎他的預期。他不僅擔憂AI將會消滅許多工作,並創造出一個「無法得知什麼纔是真實」的世界,它會從人類學習,會知道如何編碼指令,會變得比人類聰明、操控人類。各種人、機指令混合、碰撞、交疊出來的世界,誰都無法預料。
難怪不久前全球科技業大老聯名發出一封「暫停大型人工智慧實驗的公開信」,因爲人工智慧會爲社會帶來前所未見的風險和災難性後果,可能出現不符合人類價值觀的壞處,包括引致大規模失業,並且可能讓地球進入「後人類時代」。
但是這些信和宣言都沒有拘束力,凡人在此際的生存之道只有終身學習,練就多項技能,養成高EQ,培養ChatGPT無法趕上的技能。