韓國調查Deepfake換臉色情片事件 逾40間學校受影響

撰文:官祿倡
出版:更新:

韓國發現利用人工智能(AI)深度偽造(Deepfake)技術製造的色情影片與照片在Telegram流傳,甚至有未成年人遭AI換臉放入色情影像。韓國多間機構展開調查,有結果顯示,受害人中未成年人佔比超過30%,逾40間學校受影響,有涉事學校呼籲學生清空社交平台上相片。

2024年8月28日,韓國首爾,韓國放送通訊審議委員會召開內部緊急會議。(韓聯社 Via Reuters)

韓國女性人權振興院8月28日公布調查結果,統計2024年起至8月25日數據,其中向數字性犯罪受害者支援中心請求幫助的受害者共有781人,19歲以下未成年人有288人,佔總數的36.9%。韓國 《中央日報》28日報道,有學校老師建議學生盡可能刪除社交平台上的個人相片。

韓國全國教職員工會28日調查顯示,對比網上流傳的受害人就讀學校名單後發現,證實其中有超40所學校受影響。

除學生外,教師亦深受其害,報道指自2023年起就有學生參與加害教師,警方指被立案的涉事青少年疑犯所佔整體比重逐年上升,從2021年的65.4%增至2023年的75.8%。

2023年2月21日,圖為一個顯示在鍵盤上方的Telegram標誌。(Reuters)