韓國調查Deepfake換臉色情片事件 逾40間學校受影響
撰文:官祿倡
出版:更新:
韓國發現利用人工智能(AI)深度偽造(Deepfake)技術製造的色情影片與照片在Telegram流傳,甚至有未成年人遭AI換臉放入色情影像。韓國多間機構展開調查,有結果顯示,受害人中未成年人佔比超過30%,逾40間學校受影響,有涉事學校呼籲學生清空社交平台上相片。
韓國女性人權振興院8月28日公布調查結果,統計2024年起至8月25日數據,其中向數字性犯罪受害者支援中心請求幫助的受害者共有781人,19歲以下未成年人有288人,佔總數的36.9%。韓國 《中央日報》28日報道,有學校老師建議學生盡可能刪除社交平台上的個人相片。
韓國全國教職員工會28日調查顯示,對比網上流傳的受害人就讀學校名單後發現,證實其中有超40所學校受影響。
除學生外,教師亦深受其害,報道指自2023年起就有學生參與加害教師,警方指被立案的涉事青少年疑犯所佔整體比重逐年上升,從2021年的65.4%增至2023年的75.8%。
韓國Deepfake換臉色情片瘋傳 受害人遍布各行業 女兵遭稱軍需品特朗普再賣NFT卡圈錢 每張99美元 多買可獲西裝碎片或共進晚餐日本「令和米騷動」持續到年底? 高官籲民眾別搶購大米韓國京畿道3車相撞5死9傷 3死者為中國人