兒少性剝削6年增3倍 民團盼設專責機構、慎防生成式AI

隨科技網路發展,兒少性剝削樣態轉變,衛福部統計,近6年兒少性剝削案件增加3倍,性影像相關案件成長5倍,且使用網路工具犯罪者,明顯高於非網路犯罪。本報資料照片

隨科技網路發展,兒少性剝削樣態轉變,衛福部統計,近6年兒少性剝削案件增加3倍,性影像相關案件成長5倍,且使用網路工具犯罪者,明顯高於非網路犯罪。民團呼籲,政府應設置網路治理專責單位,有效杜絕網路兒少性剝削。國際專家則說,生成式人工智慧(AI)恐加劇兒少性影像影響範圍,必須慎防。

衛福部保護司統計,106年兒少性剝削通報案件共1060件,至112年兒少性剝削通報案件共4310件,而截至今年上半年,全臺已有2215件兒少性剝削通報案件。112年通報案件中,使用網路工具犯罪者共2607件,非網路犯罪爲1095件,而網路犯罪工具包括社羣網站、通訊軟體、雲端儲存空間、網路論壇等。

衛福部保護司副司長郭彩榕說,兒少性剝削通報案件數提高,代表民衆意識提高,兒少性剝削主要議題,早年是雛妓救援,近期通報個案,則幾乎都與兒少性影像相關,衛福部與Google持續討論,將運用科技技術做網路巡查,兒少性剝削防制條例修法後,警方也將設置鑑識資料庫,強化犯罪偵查工作。

美國反兒童性虐待組織「Thorn」數據科學副理事長波特諾夫(Rebecca Portnoff)說,過去兒少性影像傳播途徑較爲限縮,多在犯罪者相關社羣,或利用郵寄、實體店鋪販售,隨網路發展,相關影響在數秒內就可散佈至全球,「任何人都能啓動兒少性剝削行爲,也讓防治更加困難。」而光是去年一年,美國就有超過1億的疑似兒少性影像或照片流傳在網路中。

波特諾夫表示,性影像數量龐大,AI技術除可用於辨識新上傳的兒少性影像,也可用於區分影像的危險等級,列出優先順序,若影像中有兒少明顯遭遇性虐待者,可交由人類進行判斷,快速找到受害者助其遠離傷害;藉由機器學習,可讓AI辨識影像是否經過變造,並降低其誤判機率,必須定期訓練,調整權重,增加其準確性。

不過,波特諾夫點出,深僞(Deep Fake)技術結合生成式AI,卻可能造成新一波兒少性剝削浪潮,生成式AI可利用成人性影像,結合正常的兒少照片,形成兒少性影像加以傳播,要防堵此類事件,必須從AI設計者開始做起,訓練AI的資料集必須嚴格排除含有兒少性影像的網站,託管AI的平臺也必須留意資訊安全,避免被兒少性影像素材入侵。

臺灣展翅協會秘書長陳逸玲說,科技讓兒少性剝削防制面臨挑戰,必須透過創新科技及立法手段來加強打擊,澳洲政府已設置網路主管單位,英國也在籌設,臺灣卻尚無網路治理專責單位,由於網路議題跨越部會,建議政府可在行政院層級之下,設置跨部會機制,專門進行網絡治理,除能防堵兒少性剝削,也能讓網路世界活動更安全。

陳逸玲表示,在尚無網路治理主管機關情況下,透過網路進行的兒少性剝削防制,必須靠業者自律,尤其應落實「設計及安全」觀念,在平臺、服務設計時,就要把兒童安全納爲重要考量,不是等憾事發生後,纔在思考如何圍堵,目前許多國際大型平臺業者,已自主開始相關業務,但對於國內業者而言,對於兒少性剝削防制議題仍不清楚,政府、民團必須共同努力。