【AI電競KO人類】AlphaStar戰勝電競高手 超越上一代有幾勁?
繼人工智能(AI)AlphaGo稱霸圍棋界後,人工智能研究公司DeepMind設計的新程式AlphaStar,轉戰即時戰略遊戲《星海爭霸2》(StarCraft II),並完勝兩名世界級職業電競選手。
對人工智能而言,《星海爭霸2》的複雜程度比棋類比賽有過之而無不及,當中涉及即時決策及長期規劃等不同範籌。AlphaStar在比賽中偶然仍會犯上顯而易見的錯誤,與最佳電競好手仍有一段距離,但無論如何今次的勝利,不但反映「他」已超越上一代,更象徵人工智能在自我學習及即時決策的重大突破。
AlphaStar自我學習更為優秀
《射鵰英雄傳》中周伯通創出「左右互搏」之術,事實上人工智能亦是以自我對戰來進步。
AlphaGo依靠龐大的資料庫學習,以找出每個棋局的「最佳版本」,然後在每一輪的自我對弈中以這個「最佳版本」不斷「打倒昨日的我」。
《星際爭霸2》等實時戰略遊戲瞬息萬變,要取得勝利不再有單一的最佳策略,而是會出現相互克制的情況。所以AlphaStar在自我對戰會試圖發掘不同可能,以幾個版本不斷「打倒昨日的我們」。
這項群體自我對戰的技術,能不斷更新及形成集各家大成的多元網絡,以助人工智能減少決策上出錯的可能。
AlphaStar臨場判斷更勝一籌
棋類比賽大部分信息其實已在「桌上」,人工智能可以在每一輪分析對手的行動再作打算,惟AlphaStar在《星際爭霸2》卻要面對資訊不足的博弈,這不考驗人工智能至少三方面的臨場判斷能力:
首先是即時決策,人工智能要每時不斷偵查地圖,隨時間推移隨時作出相應決策。
其次是操作空間,不同於傳統棋類,人工智能要同時控制數百個不同的單位及建築物,他們可以升級、移動,或是與敵人對戰,牽一發動全身。
最後是長期規劃,遊戲中成千上萬的動作和決策許多都不是立竿見影,因果關係亦不明顯,依靠的就是人工智能在自我學習後所作的決策。
AlphaStar用於日常生活
研究人工智能又怎會只着眼於遊戲上,最終目標當然是應用在日常生活中。《星海爭霸2》的多變與現實世界甚為相似,DeepMind亦看中這一點,讓這類即時戰略遊戲成為人工智能的試驗場。
就如我們每日不停從錯誤中學習和成長一樣,DeepMind認為,AlphaStar的自我學習能力是讓人工智能技術更可靠的關鍵;另一方面,AlphaStar的臨場判斷亦可以用在其他更複雜問題上,發展人工智能的天氣預測或語言理解。
(綜合報道)