AI生成面部拼圖有助破案?真實面容精準度強差人意因為嚴重偏見
【AI/ 人工智能】近日在Twitter上有網民發布了大量身材與樣子都堪稱完美的美女照片,雖然明眼人一看已發現端倪,因為她們都完美得不太自然,原來是AI生成出來的圖像。來到這個廣泛應用AI生成的時代,平常人只要有時間有心機都可以利用這些技術來進行創作,近一兩年也頻繁看到關於AI創作藝術、設計的消息,甚至將作品拿去參賽贏過了傳統的藝術家。
早前又有開發人員利用OpenAI的DALL-E 2圖像生成技術來打造出一個面部拼圖程式,主要針對犯罪嫌疑人希望有助破案,不過有專家指出這樣其實會引起嚴重的問題。
由開發人員Artur Fortunato和Filipe Reynaud創造出來的程式Forensic Sketch AIrtist所生成的面部拼圖非常像真,作為一張照片實在難分真人與假人,創建出來的主要原因在於縮短繪製嫌疑人肖像所需的時間,這一點就留下了懸念,科技方便用家,但作為警方使用的面部拼圖工具豈不是應該著重準確性而非時間嗎?雖然生成照片像極了真人,但與嫌疑人真實的面容又是否符合?這正正是一些AI倫理學家所持的觀點。
Fortunato和Reynaud現正聯絡相關的警察部門希望獲得更多的數據來進行測試,但問題有時並非出於此,嫌疑人面容的精準度可能並不在乎於數據是否充足,而是在最初證人描述過程中已經出錯,很大機會加入了種族和性別方面的偏見以及人類不可靠的記憶力的影響,採用AI去處理甚至會加劇了錯誤的可能性,使面容進一步往錯的方向來生成。
程式需要根據性別、膚色、眉毛、鼻子、鬍鬚、年齡、頭髮、眼睛和下巴的描述來生成肖像,不過有研究顯示人類的大腦並不同於電腦,我們去記憶其他人的面孔是看整體而非單純去描述特徵,這樣生成出來的肖像有機會與真實的容貌嚴重偏離,更可怕的是,由於生成肖像非常真實,映入眼簾之後又有機會取代了本來的糢糊記憶。
在美國錯誤定罪的情況非常嚴重,去年由美國國家無罪釋放登記處發布一份名為《Race and Wrongful Convictions in the United States 2022》的報告道出了種族與錯判的事實,於過去的33年當中登記處記錄了被無罪釋放的3,200人,其中黑人佔上一半以上。並指出黑人相比起白人,被錯判謀殺罪多出7倍、被錯判強姦罪為8倍,至於在毒品有關的錯判中黑人的比例佔上高達69%。當中涉及了認知偏見、種族主義、甚至故意陷害。
假如面部拼圖出錯,將會大大影響了調查案件的方向,有不少錯判的案件問題出自取證程序,當中包括面部拼圖。現時有人嘗試利用程式生成所描述的真人,卻出現了不少截然不同的情況,而且無法確定偏差的確切來源。我們常常思考AI是否能夠取代某些人類職業,但似乎AI也不擅長解決這些人類問題。