【軍備競賽】得人工智能者得天下 致命自主武器「殲滅者」非空想
電影《未來戰士》(Terminator)中,人工智能機器天網(SkyNet)派出「殲滅者」機器人消滅所有倖存的人類。「被造之物」擁有自我意識後,反過來殲滅「造物者」是不少科幻電影的橋段。隨科技日益進步,距離人類兌現「自我實現預言」的一日或者愈來愈近。
人工智能(artificial intelligence,AI)科技近年突飛猛進。軍事大國也積極開發軍用人工智能,不但用來協助人類作出更準確的判斷,甚至研製更強大的武器,包括致命自主武器(lethal autonomous weapon)。
俄羅斯總統普京曾形容,得人工智能者得天下。回顧人類軍事歷史,火藥和核武器的發明均掀起重大變革。不少專家也認為,人工智能將會是新時代軍備競賽的重要一環。
人工智能大躍進
現代人工智能的大躍進始於2012年。研究員成功開發「深度學習」(deep learning)技術,利用深度類神經網路進行學習。自此,人工智能系統開始超越人類,能夠辨識人臉、分辨物件、抄錄演說甚至玩複雜的遊戲。
哲學家米勒(Vincent Müller)和博斯特倫(Nick Bostrom)在2011年至2013年期間進行的研究,訪問170名人工智能專家。普遍認為高等機器智能(high-level machine intelligence)有九成機會於2075年前誕生,亦有一半機會於2040年出現。
科學家很清楚人工智能系統的威力,也擔心終有一天會研發出「殲滅者」般的自主武器。物理學家霍金(Stephen Hawking)曾警告規管人工智能的重要,形容人工智能有可能是人類文明歷史中最壞的事件。Tesla行政總裁馬斯克(Elon Musk)亦指,人工智能軍備競賽或成為第三次世界大戰的藥引。
中美俄分途出擊
中國、美國和俄羅斯三大軍事勢力早已磨拳擦掌。2017年,中國國務院公布《新一代人工智能發展規劃》,揚言於2030年前成為世界主要人工智能創新中心。2019年,美國總統特朗普公布《美國人工智能計劃》(American AI Initiative),追求國家戰略發展。
雜誌《外交政策》(Foreign Policy)形容,中國採取的戰略最進取,專注發展能夠執行戰略決策的人工智能。相比起人類,電腦能夠處理大量信息,如部隊準確的全球定位系統(GPS)位置、無人機和衛星報告。利用人工智能作決策,自然佔有軍事優勢。
美國的策略相對較保守。奧巴馬時期的國防部官員發表第三次抵銷戰略(Third Offset Strategy),提到華府將主力發展「人機合作」,而非製造全自主系統,意味機器將協助人類作出更好的決定。例如利用「電腦視覺」分析影像和鎖定目標,協助人類操作無人機。
至於俄羅斯則採取最直截了當的方向,將人工智能應用於軍事硬件。俄羅斯戰術導彈公司(Tactical Missiles Corporation)已着手開發能夠於飛行途中改變航道的自我導航導彈,用來避開防導系統。
「未來戰士」指日可待
如同「殲滅者」的殺手機器人又會否出現?隨人臉辨識和決策演算法愈來愈成熟,科幻劇情或許會成為現實。
人工智能的威力可謂毋庸置疑。2016年,美國研發的人工智能系統阿爾法(Alpha)於模擬戰鬥中擊敗兩架戰機。代表人類出戰的退役空軍上校李(Gene Lee)未能擊中目標,屢戰屢敗。他形容,人工智能系統似乎能夠洞悉自己的意圖,並即時作出反應。
人工智能研究員拉塞爾(Stuart Russell)認為,技術上,自主武器比起自動駕駛汽車更簡單。現時,美軍已在駐軍地區部署大量軍事無人機。不過無人機仍由人手操控,決定何時展開攻擊。最簡單的致命自主武器不會如同「殲滅者」,反而是沿用現有的軍事無人機硬件,將人手操縱改為由演算法操縱。
升級版的無人機能夠消除傳送信息的「時差」,同時能大量部署。演算法可以設定「殺人名單」,攻擊特定目標,或者從影片或實戰中訓練,學習分辨攻擊目標。有人提出,由於機械不會感到疲累,因而不會犯錯,也因為不帶有復仇情緒,所以不會犯下戰爭罪行,蓄意殺害無辜平民。
「殲滅者」將誤入歧途?
如果繼續發展致命自主武器,武器最終會變得廉價。現時要購買無人機已經極為容易,隨技術改進,價錢也將持續下降。如果有人於戰場使用無人機,毫無疑問亦會有部份無人機落入敵方。製造便宜、容易擴散的大規模殺傷性武器,將會反過來被敵方利用。
致命自主武器甚至會成為執行暗殺、種族清洗和種族滅絕的「絕佳工具」。生命未來研究所(Future of Life Institute)通訊總監康恩(Ariel Conn)指,無人機能夠將特定種類的人設定成目標,這亦是最直接的應用方式。
由機器完全取代人類上戰場,背後仍有極大爭議。退役美國陸軍遊騎兵沙爾(Paul Scharre)憶述自己於阿富汗執行任務時,塔利班恐怖份子派出一名6歲女童報告美軍位置。根據戰爭法,戰鬥人員沒有年輕限制,當時射殺女童亦完全合法,但美軍沒有如此做,因為他們認為殺害兒童是錯誤的。換成是按戰爭法運作機械人的話,也許女童已斃命。沙爾說:「合法的事和正確的事並非必然相同。」
要避免「自我實現」,發展人工智能的過程應該審慎。康恩說:「我們試圖避免一場人工智能競賽。沒有人想競賽,但沒有人想不代表不會發生。引發人工智能競賽的其中一項因素是武器的競賽。」如果有國家過於注重發展軍用人工智能,其他國家也自然跟隨,最終或釀成無法挽回的後果。
▼想觀看更多俄羅斯閱兵儀式的相片,請點擊以下圖輯: