美國已經發起了人工智能的新「軍備競賽」嗎?|TECH
6月10日,《華爾街日報》的一篇獨家報道披露,美國已經組建了一個人工智能工作組,考慮將政府的數據和計算能力分享給國家的人工智能研究人員,以努力保持與中國和俄羅斯等其他人工智能大國的競爭。
有些研究人員希望此舉將有助於推動該領域的發展,但其他專家對競爭壓力的負面影響卻抱持謹慎態度:這是否全球新「軍備競賽」即將到來的標誌?
國家人工智能研究資源工作組(National Artificial Intelligence Research Resource Task Force)是一個由白宮科技政策辦公室(Office of Science and Technology Policy)和國家科學基金會(National Science Foundation)的政府官員領導的來自學術界、政府和行業的12名成員組成的小組。
該工作組將負責起草計劃,為公共和私營部門的研究人員提供更多的人工智能研究資源,包括有關美國公民的匿名政府數據的存取,以及分析數據的計算能力。
該計劃可能包括美國人的健康、駕駛、人口統計等方面的數據。這促使一位美國Twitter用戶宣稱,「我們都即將加入真正的#大數據集。」
工作組制定的任何計劃仍需要國會批准,但美國積極考慮這樣的舉措對一些專家來說已經是一個令人擔憂的信號。
這一決定令人擔憂的是什麼?
該工作組是特朗普時代已啟動的更廣泛人工智能戰略的一部分,目標是確保美國將保持在技術進步的領先地位。工作組根據《2020年國家人工智能倡議法》(National Artificial Intelligence Initiative Act of 2020)而成立——這是一項在特朗普政府承諾「確保我們偉大的國家在人工智能領域保持全球領先地位」後通過的法律。
工作組的聲明表示,這種競爭感和緊迫感在拜登上台後並沒有消失。國家科學基金會主任潘查納坦(Sethuraman Panchanathan)向《華爾街日報》表示,「這是一個呼喚我們加強(人工智能創新的)速度和規模的時刻(...)它也呼喚我們確保創新無處不在」。
這種言論令人擔憂地趨近一些人工智能安全專家多年來一直要求政府和企業避免的情況:陷入人工智能競賽的心態,並在世界人工智能大國之間催生一個「集體行動問題」(collective action problem)。
當對競爭的恐懼促使個人或組織採取越來越多的高風險決策,以在一場感覺中存在的競賽中取得領先時,就可能會出現「集體行動問題」。軍備競賽就是這種問題的一個典型例子。像國際武器條約這樣的協調行動可以幫助解決這個問題,但國家之間缺乏信任或透明度往往使這些條約難以實施。
安全專家認為,這種集體行動問題可能在人工智能領域紮根。當人工智能研究人員、公司或政府擔心其他人在技術方面的快速進步可能會使他們落後,他們就更有可能在沒有適當保障或安全措施的情況下研究、資助、開發和部署高風險系統。
與洲際彈道導彈不同,人工智能技術不容易被計算和比較。沒有簡單的方法來衡量一個國家擁有「多少」人工智能或一個軍事部署的人工智能系統有多強大。這使得估計對方的能力更加困難,這也增加了戰略上的不信任。缺乏明確的人工智能力量基準,也使得決策者難以就人工智能發展的國際規則達成一致;與冷戰時期的武器條約不同,我們不可能直接設定人工智能「彈頭」的最大數量。
在這個問題上,政府發揮着特別重要的作用。關注人工智能的非營利組織「80000hours」的研究人員認為,由於美國、中國和俄羅斯等國政府是開發和部署先進人工智能系統的關鍵角色,它們「很可能會促成導致這種競賽的環境」。
最近新的人工智能工作組的披露似乎表明,美國確實有走向這種環境的趨勢。加強人工智能創新的「速度和規模」的壓力可能會導致忽視安全防範措施和對安全研究投資不足。
人工智能安全:世界上最重要的事情?
這尤其令人擔憂,因為人工智能安全方面的失敗可能會產生巨大的後果。據《華爾街日報》報道,「該工作組將評估如何在保護美國人私隱的同時提供(政府的)這些數據。」然而,人工智能競賽可能導致的後果比私人數據泄露要糟糕得多。
人工智能競賽的情況可能會導致相關的研究、資金、監管和開發方面的高風險行為。它可能導致研究人員在安全方面偷工減料,並阻止監管機構對研究人員進行有效監視。政府對前沿研究的資金增加也可能會使安全相關的研究更難跟上創新的步伐。
特別令人擔憂的是,只顧擔心其他國家可能從人工智能的最新進展中受益,或會推動政府在國家關鍵系統中採用新開發的人工智能技術,如在能源網、醫院系統或軍事後勤裏面,而這些技術還沒有經過充分的測試,這可能會大大增加了災難性故障的風險。
在極端情況下,這些行為不僅威脅到數據私隱,還威脅到人類的生存。像馬斯克(Elon Musk)這樣的主要企業家和拉塞爾(Stuart Russell)這樣的領先人工智能研究人員都對「不一致的人工智能」(unaligned AI),即與人類的欲望和意圖不完全一致的人工智能系統,提出了警告。他們認為,如果我們的安全防範措施失敗,這種系統的部署可能對人類構成存亡風險。
其實,許多思想家認為這是對當今人類社會最大的威脅之一:根據對現有研究的審查,牛津大學哲學家奧德(Toby Ord)將「不一致的人工智能」列為人類最可能滅絕或永久失去其潛力的方式,估計在未來100年內有十分之一的可能性發生這種情況。(奧德警告說,這些估計是高度不確定的。)
對「人工智能競賽」的擔心是合理的嗎?
誠然,世界還沒有進入全面的人工智能「軍備競賽」,美國新工作組有很多方法可以提高美國的AI研究,而不至於產生這樣的競賽動態。正如美國國家科學基金會的高級顧問和該工作組的聯合主席詹昌達尼(Erwin Gianchandani)所指出的,獲取政府數據也可以提高該領域的安全性,譬如,「如果研究人員可以獲得(交通部的車輛傳感器數據),他們可以開發旨在使駕駛更安全的創新」。
另外,目前還不清楚關於醫療或人口統計的數據可以如何使一個國家對另一個國家有明顯的優勢,而如果這種優勢不存在,這可能會限制競爭壓力。
美國的決策者經常擔心,中國國內市場的規模,以及微信或阿里巴巴等公司可獲得的來自中國移動用戶的大量數據,會讓中國在訓練強大的人工智能算法方面擁有優勢。但人工智能領域的人嘲笑這種想法,詢問這種消費者數據到底會給中國帶來什麼戰略優勢:解放軍會通過向美國人提供更好的產品推薦來贏得戰爭嗎?對中國或俄羅斯的「數據優勢」的擔心可能在很大程度上被誇大了。
然而,這並不意味着人工智能競賽不太可能發生。要讓一場人工智能競賽發生,並不需要數據(或人工智能發展的其他方面)真的能帶來優勢。只要雙方的官員都確信它們能帶來優勢就足夠了。而正如《華爾街日報》指出的那樣,「華盛頓和商界有一個越來越大的共識,即中國、俄羅斯和其他國家有可能在人工智能方面超過美國」,特別是 「因為他們努力挖掘數據」。
雖然美國的工作組只是一小步,它只會在2022年5月和11月發布初步報告,但人工智能發展中涉及的巨大不確定性和潛在風險已足夠嚴重,任何加劇競爭態勢的跡象都應該被仔細監督。