用AI換臉技術將不雅影片女主角轉成女星 二手網站上公開兜售
撰文:崔德興
出版:更新:
「AI換臉技術」近來愈來愈普及,相關的App也變得大眾化。不過,有媒體近期發現,有不法之途濫用這種功能,將不雅影片的女主角轉成女星,再在二手交易平台兜售相關影片。
據《澎湃新聞》報道,「換臉」成女星的不雅影片或照片,近日在二手交易平台「閒魚」上湧現,有多位賣家出售。
其中一位賣家提議在qq或者微信交易,不雅照片方面,其開價為一個明星30元(人民幣,下同),兩個明星40元,三個明星50元,每個明星圖片數量不同,大多數都是300張左右。此外,他還有100部影片,包括30多位明星。「都是當紅的,有的明星多,有的少。」他說。
另一名賣家則報價道,「75元套餐」中有40多位女明星上百部的AI換臉影片,「99元套餐」則可「永久外網觀看任意資源」。
律師:涉嫌刑事犯罪 可判無期
針對事件,閒魚向傳媒表示,對違反公序良俗的商品一貫以來採取零容忍態度,從嚴從重處罰違規行為。同時,在平台處理的基礎上,閒魚還將向執法機關舉報涉嫌發布違規信息的賬號,協助開展線下溯源打擊,追蹤背後的黑灰產團夥。
另據內地律師趙佔領表示,售賣明星換臉不雅影片的行為,毫無疑問對涉及的明星構成肖像侵權和名譽侵權,同時還涉嫌構成刑事犯罪,屬於「傳播淫穢物品牟利罪」,情節嚴重者可判無期徒刑。
(澎湃新聞)