G7就企業開發AI系統達成行為準則
撰文:聯合早報
出版:更新:
七國集團(G7)10月30日會就企業開發人工智能(AI)系統達成一套行為準則,以管控人工智能可能遭濫用的風險。
路透社報道,發展人工智能面對私隱問題和安全風險,這份非強制的行為準則將為主要國家就如何管理人工智能樹立一個里程碑。
G7以及歐盟的領導人於2023年5月在「廣島人工智能進程」的部長級論壇上啟動這一進程。
G7的文件稱,11點行為準則「旨在與全球範圍內推廣安全、可靠和可信的人工智能,並為開發最先進人工智能系統的機構提供自願性質行動指南」,幫助企業抓住人工智能帶來的好處和應對潛在的風險與挑戰。
該行為準則敦促企業採取適當措施,識別、評估和降低在整個人工智能生命周期的風險,並在人工智能產品投放市場後處理遭濫用的情況和模式。
公司也受促發布有關人工智能系統的能力、限制、使用和濫用情況的公開報告,並持續投入加強對人工智能的安全控制。
歐盟一直走在監管新興技術的前沿,制定了嚴厲的《人工智能法》,日本、美國和東南亞國家則採取比歐盟更不干涉的方式,來促進新興技術發展對經濟增長的貢獻。
歐盟數碼事務負責人堯羅娃(Vera Jourova)在10月早些時候在日本京都舉行的互聯網治理論壇上發言時說,上述行為準則是確保安全的堅實基礎,它將在監管到位之前發揮橋樑作用。
本文獲《聯合早報》授權轉載