DeepNude App一鍵偽造迫真女性Deepfake裸照 被批侵犯私隱即下架
Deepfake是「deep learning」(深度學習)和「fake」(偽造)混合字,專指以AI人工智能運作的人體圖像合成技術,比Photoshop手動改圖移花接木更迫真。色情Deepfake作品自2017年開始於網上普及,不少是「Key樣」的虛假名人性愛片或報復性色情媒體。就算非色情,也容易被政客、好事網民或傳媒炒作假新聞和惡作劇,構成嚴重侵犯私隱的問題。「有圖無真相,眼見未為真。」面對改圖軟件愈來愈發達,這兩句話或是不少網民的共識,尤其今日Deepfake色情影片成行成市,有片都未必有真相。
化名「Alberto」的應用程式開發者近日推出一款AI改圖App「DeepNude」。只要在該程式載入一張全身女性相片,就能極速利用以神經網絡為基礎之AI人工智能,偽造出超逼真的裸照。用家提供的原始照片裸露皮膚面積越大,偽照便做得越準確真實。該App不僅推出了含水印的免費版及50美元付費版(無水印,但有大大個Fake字標記) ,還提供了網頁版、桌面下載版予Windows及Linux的電腦用家使用。
Deepfake App「DeepNude」運作機制:
外國網媒《Vice》旗下《Motherboard》記者以幾十張照片測試DeepNude效能,發現該App在《運動畫刊泳裝特輯》(Sport Illustrated Swimsuit)的性感清涼比基尼寫真上發揮最好,足見相中女性身上越少布便越易修改。應用在男性照片時,下體會被換成女性陰部。DeepNude並非萬能,低解像度的照片經修改後,還是有AI拼貼合成的痕跡。當輸入卡通人物照片時,影像更完全扭曲。
DeepNude收費版改圖成品範例:
《Motherboard》電郵訪問了開發者Alberto,他指出DeepNude基礎為開源(open-source)演算法pix2pix,是加州大學伯克利分校的研究人員於2017年開發。基本原理也是深度學習,他們使用生成對抗網絡(GANs),在巨大的圖像資料庫集上訓練演算法。而應用於DeepNude的pix2pix則使用超過10,000張女性裸照來訓練。Alberto表示演算法目前僅適用於女性,因為女性裸照容易在網上收集,他也希望創建男性版DeepNude。
Alberto強調自己是個「科技愛好者」而不是偷窺者,受到對AI人工智能的「好奇心、樂趣和熱情」激勵而設計DeepNude,亦想藉此「實驗」獲得經濟回報。DeepNude創作靈感來自上世紀60至70年代出版之漫畫離誌上刊登的「X光眼鏡」廣告,它們聲稱可以讓人看透衣服。Alberto兩年前得知GAN網絡可白天照片變成夜間照片,便意識到可以將著衫人相變裸照,就像那些透視眼鏡。肯定了人工智能的潛力後,他著手鑽研基礎知識。
以Deepfake AI演算法生產的媒體在網上經已非常泛濫。很多好事的網民在未經當事人同意下使用女性照片做色情素材,或惡意散佈虛假的色情內容弄假成真,隨便在搜尋器輸入「Deepfake KPOP」都會出現成千上萬女星假AV片,無疑傷害了不少女性。此門本來中性的IT技術也成了幫兇,更何況DeepNude用家不需要識得編寫演算法程式也能輕易使用,毫無技術門檻,可在彈指之間交出成品,令女性更難保護自己。Alberto對網媒《The Verge》表示如果他不先做,別人也很快做出類似的App,因為相關技術已經存在,人人可以觸及;但他不忘「戴頭盔」說如發現該App被濫用,開發團隊「一定會放棄它」。
DeepNude甫推出已受千夫所指。反「色情報復行為」組織「Badass」創始人Katelyn Bowden對《Motherboard》表示,現今每個人都有可能成為色情報復的受害者,即使從未影過裸照也會遭殃,她狠批DeepNude:「如此技術根本不應該對公眾開放。」馬里蘭大學凱里法學院(University of Maryland Carey School of Law)教授Danielle Citron認為DeepNude正侵犯性私隱。「對,這不是你真正的陰部,但其他人會認為已看到你赤身露體,」她說:「有深受其害的人士對我說,感覺好像有數千人看過她裸體,覺得身體不再屬於自己。」
獲得廣泛關注後不到一日,DeepNude迅速下架。DeepNude開發團隊於透過其官方Twitter發推文指「大大低估了」公眾的興趣,並表示「人們濫用的可能性太高」。DeepNude全部版本將不會再發佈,團隊更警告不要在網上分享該App,聲稱做法違反了程式的服務條款,但也坦承會有某些副本流出。「世界還沒有為DeepNude做好準備」他們如此作結。