各國搶着舉行人工智能峰會  英美G7與聯合國的AI計劃有何不同?

撰文:歐敬洛
出版:更新:

人工智能(AI)發展一日千里,除了英國,美國、七國集團(G7)及聯合國近日都就發展AI舉行會議,討論發展、訂立規則、設置框架及控制風險。這多場會議有什麼不同?多國對AI發展將採取什麼樣的準備方向?

G7的廣島AI進程

10月30日,七國集團(G7)領導人開展了名為廣島AI進程(Hiroshima AI Process)的計劃。計劃旨在安全管理人工智能的發展,發揮AI的潛力,同時管控風險。

G7將引入國際指導原則和行為準則,供開發先進人工智能系統的組織參考,並計劃在年底前制訂一份詳細計劃,納入各國與組織的意見,包括政府、學校和企業,確保大家了解人工智能系統的能力和限制。

G7特別提及要採取強有力的安全措施,保護數據的安全,同時幫助用戶識別人工智能生成內容的方法,例如要求在AI生成的作品上加上水印。

圖為5月17日,在廣島的一個G7標誌。日本廣島舉行七國集團G7峰會。(Reuters)

聯合國建立諮詢框架

在G7推出廣島計劃前,10月26日聯合國亦宣布成立一個名為人工智能諮詢機構(AI Advisory Framework)的部門。該諮詢部門旨在採討負責任地利用AI解決全球問題,並確保包括發展中國家亦能使用AI技術。

聯合國新的AI倡議焦點在於利用AI協助應對氣候變化等全球挑戰,尋找在公共衛生和教育等重要領域中利用AI的方法,以加快實現可持續發展目標。

聯合國亦提出需研究並應對人工智能可能帶來的危險,包括錯誤資訊和侵犯私隱,呼籲開始全球討論如何有效使用AI,以獲得最大的效益同時減少風險。

美國AI治理行政命令

除了G7及聯合國的國際組織外,個別國家也希望成為制訂AI管理的領導者。美國總統拜登(Joe Biden)簽署了AI治理行政命令,為管理AI風險建立框架,要求主要的AI開發者在發布前與政府分享關鍵信息。

這項命令是關於美國在AI的法規之一,旨在為使用AI安全設下標準,減少風險,同時確保各個領域可負責任地使用AI。

法規的內容主要包括要求企業公開對先進AI系統進行安全測試的結果,對存在的風險的模型進行廣泛測試,並制訂一個利用AI識別軟件漏洞的網絡安全計劃。

圖為6月20日,美國總統拜登在加州出席人工智能會議。(Reuters)
圖為11月1日,中國科技部副部長吳朝暉在英國舉行AI安全峰會上發言。(Reuters)

英國AI安全峰會

英國在11月1日至2日舉行AI安全峰會,峰會邀請了學術界、業界和各國政府參與,中國也包括在內。

峰會探討AI安全的關鍵問題,特別是被稱為前沿AI的最先進通用AI模型。這主要包括了大型語言模型(LLMs),及其他支持前沿AI的系統。

討論涵蓋了廣泛的主題,包括使用AI的道德規範,防止濫用,及使用前沿AI的快速擴展和不可預測所帶來的風險。會議特別討論了開發非常先進的AI可能帶來失控,對人類產生的風險。

因此峰會討論了國家制定政策,包括監測和問責機制,確定國際合作的領域,以管理前沿AI的風險並實現機遇,善用先進AI為後代帶來好處。