【TECH】忍受還是面對?人類如何解決「AI偏見」
有些人擔心,有一天AI(人工智能)將變得比人類更聰明並反過來對付我們。但專家們警告說,這些擔心是基於誤解:真正的敵人不是某種未來的「未來戰士」,而是我們自己。
AI變得有利或有害取決於我們如何構建、訓練和應用它們。在上一篇關於「AI偏見」的文章中,我們發現AI就像一面鏡子,它再現我們自己的缺點,放大整個社會的不平等。理解和消除AI偏見是一項重要而艱巨的任務:我們首先要看清我們自己隱藏的偏見。
科學家、政府或公司可以做些什麼來實現這一目標?領先的研究人員有什麼建議呢?如果我們沒有或無法解決AI偏見,又會發生什麼?
其記錄將分為上下兩篇刊布。本篇為第二篇。
Facebook最近宣佈成立新的團隊,專門負責尋找算法中的種族偏見。這是一件大事:該公司的管理層此前一直拒絕這樣做。
Facebook為什麼會拒絕研究AI偏見?很簡單,目前沒有人真正知道如何解決AI偏見。如果沒有明確的解決方案,確定自己算法中有偏見只能是很尷尬的。
為什麼AI偏見難以解決?
研究人員可能不會意識到AI的下游負面影響,直到算法已經被大規模應用在注意到。
在人工智能領域,人們愈來愈清楚地認識到,偏見是個大問題,應該避免。但是,「AI偏見研究」仍然是一個年輕的領域。
主要挑戰是當代大多數AI應用背後的「深度學習」(deep learning)算法的複雜性。深度學習算法因其可以從數據中「學習」的能力而吸引了研究人員的注意,算法會自我調整內部代碼,直到能夠實現我們賦予它的任務。然而,這種驚人的適應性也意味着算法的大部分都隱藏在一個由數百萬個參數組成的「黑匣子」中,令數據專家難以理解。
無法理解算法的每一步計算,就不會清楚算法的調整會對機器的整體功能產生什麼影響。研究人員可能不會意識到他們數據和選擇的下游負面影響,直到算法已經被大規模應用在注意到。
而當他們確實看到AI偏見的影響時,可能很難準確地指出到底是哪裏出了問題:是在他們構思目標、收集數據,還是選擇考慮什麼屬性的時候?還是僅僅因為其應用方式的問題?
修復AI數據
在大多數情況下,偏見會通過訓練數據被引入算法中。這在使用歷史數據時很常見,例如關於銀行的數據經常被用來訓練人工智能算法,旨在幫助銀行決定對某個客戶要否提供信用卡或貸款。
但這些數據往往帶有針對弱勢群體的隱性偏見,譬如在香港,有研究指出,銀行向少數族裔發放貸款的可能性比其他人要小,如果用他們過去的決定訓練AI,這種現實可能會在不知不覺中延續到算法中。
對於有數百萬個變量的數據集,或者當我們不確定問題出在數據的哪個方面時,手動修複就不可能。
問題是,當涉及到訓練數據中的偏見時,並沒有約定俗成的好辦法來消除它。有時固然可以手動修複數據,但對於有數百萬個變量的數據集,或者當我們不確定問題出在數據的哪個方面時,手動修複就不可能。
一種解決方案是讓算法要調整其結果,以補償任何被意識到的偏見。譬如,如果一個銀行算法不利於少數族裔,我們可以讓它降低少數族裔申請貸款的標準。然而,這相當於一種有爭議的「算法平權行為」(algorithmic affirmative action),而且只是將「公平」問題轉移到別的地方上去,而沒有解決問題。
雖然研究正在開發的算法可能會幫助檢測或減輕算法數據或AI結果中的偏見,但到目前為止,還沒有可靠的方法。在此期間,數據科學家能做的主要事情還是反思自己的實踐。
【TECH】是一個正在進行的關於技術和社會的系列報道,其目的是在歷史、社會、經濟、政治的背景下解釋科技新聞。從人工智能到納米藥物,從人類的改進到工作的未來,01國際【TECH】系列探討破壞性科技創新如何被商業化、規管、濫用和再利用——不僅解釋科技是如何改變世界,也分析世界是如何塑造科技。
修復AI實踐
AI偏見研究人員正在鼓勵電腦科學家重新思考他們處理問題的方式,尤其考慮自己工作上的偏見和盲點。
數據專家在設計人工智能時,ying ga傾聽將會受這個AI影響的社區。
這種偏見可以在電腦科學實踐的不同階段進行,從設定算法的目標到將它應用於現實世界。但通常歸結為一個簡單的建議:數據專家在設計人工智能時,要傾聽將會受這個AI影響的社區。
在電腦科學這個技術性的領域中,設計一個可以在不同環境下使用的系統被認為是好的做法。但對於影響人類社會的AI工具來說,這是糟糕的想法,每個人、每個社區的背景都是不同的,電腦科學家在開發AI產品之前應該和那些真正會使用這個產品的人交談,了解這個算法最後要被怎樣使用,人們對它會有什麼樣的要求。
這也意味着數據專家的工作並不是在他們構建算法後就結束了。研究AI偏見的專家認為,在把它丟到某個政府或某個公司手中之前,數據專家應該在真實的生活環境中進行測試。
修復AI社區
AI偏見研究在電腦科學中發現的上述漏洞,使整個領域思考可能需要重新組織。
有些人認為,該領域需要成立新的專業,通過形成「收集數據」或「無偏數據加工」的專家。今天,在電腦科學的專業等級制度,算法開發被美化得高於一切;因此,對保持人工智能的公平性關注不夠。
有些電腦科學家們一直鼓勵人工智能機構僱用和晉升來自不同背景的研究人員。
另一個強烈的呼聲是,在從事人工智能的團隊中,要有更多元化的人工。特別是美國,因處於前沿人工智能研究和正在進行的種族平等運動的交叉點,一直是這一趨勢的領導者。
像加納裔美國麻省理工Media Lab電腦科學家Joy Buolamwini這樣的年輕研究人員一直在挑戰軟件中的偏見,並鼓勵人工智能機構僱用和晉升來自不同背景的研究人員。Buolamwini的研究涉及到展示美國領先人臉識別系統是如何在識別深色皮膚人的面孔和性別方面失敗率高。
AI偏見究竟為什麼很重要?
AI不是未來的技術,今天已經有社交媒體平台、人力資源經理、法官、警察局長和國會議員依靠深度學習算法做出的推薦來進行決策。然而,這些機器是由不完美的人類打造的工具。
如果不控制AI算數的偏見,我們就會將它嵌入到我們的經濟、社會和政治體系。
這就是為什麼檢測或減輕我們的偏見是如此重要:這些AI工具對誰能獲得貸款、誰能進入頂級學校或誰能出獄的決策影響已經很大,並在變得愈來愈大。如果我們不能控制我們給予它們的偏見,我們就會將它們嵌入到我們的經濟、社會和政治體系。
Facebook終於決定認真審視他們的算法,這是解決社交平台這幾年出現的重要問題的第一步:選舉干預、用戶私隱不安全和社會兩極化。換句話說,Facebook第一次將在其AI鏡子裏銳利地盯住自己。
AI偏見的問題提醒我們的是,如果我們不想成為自己發明的奴隸,那麼引領人類社會變革的不應該是技術,而是人類應該引領技術應用的變革。
相關文章