我見我思-難分語氣用詞 ChatGPT恐造成無心冒犯

心理學中有「鄧寧-克魯格效應」(Dunning-Kruger effect),亦即過度高估自身能力。在使用生成式AI進行英語溝通時,尤其是臺灣英語能力中高級、低中級的專業人士來說,這是日益嚴重的風險。

需注意的是,儘管生成式AI對語言能力較弱的使用者來說,確實帶來了改善,但也可能誤導使用者對語言的能力感,恐會掩蓋掉作者本身語調、風格和詞彙選擇。

對於風險較高的英語溝通,例如演講、新聞發佈、外交信函等,語調、風格和詞彙選擇對維護專業品牌形象至關重要。然而由於生成式AI的侷限性,讓使用者無法瞭解這些問題,而相關議題處理的失敗,恐將導致聲譽受損,甚至冒犯到受衆目標。

生成式AI無疑能夠提高使用者的生產力和技能,但是對於英語能力中等和低中級使用者而言,情況將較爲不穩定,這些人在國際組織的銷售、市場營銷、公關部門中,成爲AI輔助「鄧寧-克魯格效應」的受害者。他們對於AI的依賴,可能導致不適當、不專業的溝通,同時又處於感覺自己語言流暢與準確的錯覺之下。

因此,大家必須對語言能力和溝通能力,進行重要區分。生成式AI能幫助使用者達到高度準確性,卻無法保證同樣的溝通品質,即使提供生成式AI完美的文本,但上下文、語氣、正式程度、特定性等關鍵領域不適合,也可能會造成錯誤。

尤其是經過生成式AI修訂的文本,用於高風險溝通時,問題就會升級。

筆者作爲一家臺灣大型非語言組織的語言編輯,親眼目睹裡生成式AI對寫作質量所帶來的各種影響。

使用生成式AI製作的正式信函,可能會因爲用句過長或內容不明確,而讓讀者困惑。或者是產生的演講和信函,語意顯得過於自大,甚至傲慢。相關情況,筆者在三個星期內就注意到了,顯示出生成式AI造成的語言正確性與有效溝通之間,有明顯的斷層,而這些微妙的失誤可能被寫作者所忽視,但接收者肯定會注意到。

爲了防止生成式AI帶來的虛假安全感,應該留意兩項重點:第一、認識並防範「鄧寧-克魯格效應」,使用者必須瞭解生成式AI的侷限性。第二、確保專業人員參與和審覈AI產出的內容,尤其是高風險溝通。否則長期建立的信譽,會在僅僅一次的無心冒犯中,就被摧毀。