蘋果決議掃描用戶iCloud相片與訊息內容 遭到斯諾登與EFF抨擊
蘋果宣佈爲了防範兒童性剝削內容流傳,將掃描用戶iCloud與iMessage,引發爭議。(摘自蘋果官網)
你覺得使用蘋果(Apple)iPhone、iPad就代表你的隱私受到完整防護了嗎?或許這個期待在過去成立,但很快地即將宣告破滅。蘋果在日前與官網公告,爲了進一步防止兒童性剝削內容(Child Sexual Abuse Material CSAM)在網路上流傳與散播,他們將會對用戶上傳到iCloud的照片以及兒童用戶的iMessage進行掃描。這一項政策,受到愛德華史諾登(Edwaed Snowden)以及電子前哨基金會(Electronic Frontier Foundation EFF)強烈抨擊。
根據蘋果官網說明,他們將實施的新政策包含三大層面。第一,若是iOS設備被認定爲是由兒童所使用,「訊息」app將會使用設備上(on-device)機器學習技術來示警敏感的內容,並且會通知父母。第二,iOS以及iPadOS都會使用新的加密工具來防範兒童性剝削內容在網上流傳。蘋果指出他們將會掃描用戶上傳到iCloud照片是否包含CSAM,若發現還會通知警方;第三,Siri以及搜尋(Search)功能將會更新,防範用戶搜尋到CSAM相關的內容。蘋果指出,這些新政策將會導入在即將推出的iOS 15、iPadOS 15、watchOS 8以及macOS Monterey。根據蘋果官網註釋,這些改動應該會先在美國地區推行。
針對蘋果的新政策,曾經因爲將棱鏡計劃公佈給媒體,在人們隱私防護上可謂先鋒之一的前美國中央情報局(CIA)職員、國家安全局(NSA)外包技術員的愛德華史諾登,提出了抨擊。他指出無論立意有多良善,蘋果正對整個世界推出大型監控計劃。而且他提出警告,今日如果蘋果可以針對兒童性剝削內容進行掃描,他們明天就可以掃瞄任何內容。
而國際非營利組織電子前哨基金會(EFF)也同樣對於蘋果的決策提出強烈質疑。EFF指出,兒童性剝削是一個嚴重的問題,蘋果也並非第一個爲了打擊這種現象而改變隱私保護立場的公司,但是這樣的轉變發生在一個點對點加密的倡導者,並且對他們開始掃瞄用戶的行爲感到非常失望。EFF指出,就算蘋果能更完整說明技術細節,也宣稱可以保護用戶安全與隱私,但是就算這是一個經過完整考量、範圍定義狹窄且會徹底留下記錄的後門(backdoor),它仍舊是一個後門!
EFF指出,不可能建置一個只用於掃描兒童色情圖片相關的系統。因此,即便蘋果是出於善意,這仍舊會破壞蘋果對於加密的承諾,也等於是爲了更廣泛的濫用打開一個大門。EFF直指,掃描用戶上傳在iCloud的照片,等於是降低了隱私防護。而他們認爲蘋果決定在iMessage中加入機器學習以及納入通知父母的功能,也是遠離強加密(Strong Encryption)立場的做法。
EFF認爲人們有免於審查機制與後臺,且能擁有私密溝通的權利,即便是還未成年的人們。他們認爲蘋果應該要做出正確的決策,並且將「後門」從人們的設備中挪走。
關於「後門」這個議題。先前蘋果曾經多次拒絕美國警方或司法單位的要求,來協助解鎖嫌疑犯的iPhone,或是甚至提供一種解鎖機制(也就是「後門),讓執法單位可以快速解鎖特定人士的iPhone。相信這當中關於「後門」的機制與概念,跟保留於上述系統中掃描用戶在iCloud中的照片的技術有部分類似之處。當初,蘋果毅然決然地拒絕提供「後門」,但如今就算是爲了防止兒童性剝削情況更嚴重而進行讓政策轉彎,看來雖是立意良善,但主動將使用者隱私大門打破,留下一道與執法單位、政府之間聯繫的管道,還有什麼立場宣稱以用戶的隱私爲主呢?