韓國Deepfake換臉色情片瘋傳 受害人遍布各行業 女兵遭稱軍需品

撰文:官祿倡 成依華
出版:更新:

韓國近期發現利用人工智能(AI)深度偽造(Deepfake)技術製造的色情影片與照片在Telegram瘋傳,涉多個聊天群組,每個群組成員介乎數百至逾十萬不等。韓聯社8月26日報道,遭AI換臉放入色情影像的受害者包括大學生、教師、女兵等,甚至有中學生等未成年人,涉及學校超過百間,令人震驚。

《韓民族日報》27日報道,根據記者發現的一個以女軍人為對象的群組,成員約850人,單是營運者就有逾20人,他們更會把受害人稱為「軍需品」,群組會要求用戶將女兵的私隱訊息與相片提供給營運者,參加者向營運者的個人Telegram發送照片後,營運者會製作合成的色情圖像,上傳到群組。

圖為2023年4月26日Getty發布的設計圖片,可見巴西里約熱內盧一部手機熒幕顯示Telegram標誌。(Reuters)

報道指,由於不僅使用社交網站上的照片,還有使用軍隊內部網絡才能看到的證件照片等製作合成的色情圖像,報道推測軍隊內部人員涉事的可能性很大。

韓國廣電通訊審議委員會8月27至28日召開會議,希望加強對深度偽造(Deepfake)問題的監控力度,要求警方採取措施,並計劃向Telegram投訴,要求刪除這些色情影片。