百萬網紅「臉被偷」慘變色情片主角 揭非法產業鏈:5蚊定製AI裸照
隨著AI技術逐漸成熟,普通人換臉明星成為偶像劇主角不再是夢。但在另一方面,卻變成侵犯肖像權、傳播淫穢色情影片的新式非法業鏈。
4月26日,內地一名擁有百萬粉絲的網紅稱自己「臉被偷」,有人用AI換臉軟件,製作她的色情影片。該網紅稱,不僅是她,「AI盜臉」已變成產業鏈。
昨日,在微博上擁有147萬粉絲的網紅博主「Caro賴賴_」發文稱,有人盜了她的「臉」。據她介紹,約半年前,其影片評論區有網民評論稱看過她的「視頻」。本著「清者自清」的原則,未做任何回應。但幾日前,其朋友發給她一些截圖和影片向她求證。當她看到影片中女演員正用自己的臉,做一些「難以描述的動作」時,她才意識到「臉被AI盜用」。
而且「Caro賴賴_」稱,她還發現有人在境外社交平台上冒充註冊了假賬號,盜取她的日常帖文發布,在累計一定數量的追蹤人數後,再以會員訂閱的方式販賣影片。她更發現,在另一個社交網站(Instagram)上,有很多賬號在製作及販賣「AI盜臉」影片。
這些「AI盜臉」影片的背後,也似乎形成一條完整產業鏈。不法分子通過AI換臉技術,將明星、博主,甚至普通人的臉製作成色情圖片或影片,明碼標價以獲取利益。
除「AI盜臉」外,「Caro賴賴_」還提到一種「一鍵脫衣」的技術,只需發送人像生活照,就能通過AI技術合成的方式製成圖片或影片。
商家公開售賣「一鍵脫衣」 5蚊即可生成裸照
據《極目新聞》報道,內地社交平台有不少「去衣軟件」和提供「AI換臉」服務的賣家。其中一名賣家介紹,AI換臉收費30元(人民幣,下同)、手機去衣軟件收費50元、電腦去衣軟件收費80元。但賣家並不提供「一鍵脫衣」服務,「因為之前帳號被封了一次」。
但另一名賣家則表示,可以「來圖定製」,一張圖片5元,5張圖片20元。賣家提供的「去衣軟件」製作過程顯示,在軟體中上傳一張人像圖片後,經過一些簡單的設置,等待一段時間後,這張人像圖片就會變成一張裸體照。
河南澤槿律師事務所主任付建指出,通過AI合成的方式製作帶有他人面容的淫穢色情視頻,在境內外社交平台上進行傳播和販賣,其行為涉嫌製作、傳播淫穢物品牟利罪。賣家未經允許獲取他人圖片和個人信息,屬於侵犯隱私;再以此製作淫穢影片,更侵犯他人肖像權和名譽權。
根據中國《刑法》規定,以牟利為目的,製作、複製、出版、販賣、傳播淫穢物品的,處三年以下有期徒刑、拘役或者管制,並處罰金;情節嚴重的,處三年以上十年以下有期徒刑,並處罰金;情節特別嚴重的,處十年以上有期徒刑或者無期徒刑,並處罰金或者沒收財產。