OpenAI加強內部監管 董事有權否決管理層決定
撰文:聯合早報
出版:更新:
人工智能(AI)聊天機械人程式ChatGPT母公司OpenAI賦予公司董事權利,否決公司領導的決策,以進一步加強開發尖端科技的安全保障。
OpenAI於12月18日發表一系列指引,闡明公司計劃如何應對它最強大人工智能(AI)系統可能引起的極端風險。
在指引下,OpenAI只會在確定最新科技的安全性之後才會開始運用。公司也將成立一個顧問團隊以審核安全報告,再轉交公司高層和董事局。雖然公司領導負責做決策,董事局可推翻決定。
公司在總裁奧爾特曼(Sam Altman)短暫被罷免期間,市場焦點放在這家全球頂尖科技公司的董事局和管理層之間的權利平衡上。
OpenAI 10月宣布成立「備災小組」,並會持續評估它的AI系統在網安、化學、核子和生物威脅等4大範疇的表現,同時減低科技可能帶來的任何危害。
具體來說,公司檢查的是定義為:能造成上億元經濟損失,或導致許多個人受傷害或死亡的「災難性」風險。
領導公司備災小組的馬德里(Aleksander Madry)告訴彭博社,他的團隊會每月提交報告給內部新成立的安全顧問團隊,再由奧爾特曼與公司董事局分析團隊呈交的建議。
馬德里說:「AI本身沒有好壞,我們正在塑造它。」
他也希望,其他公司能利用OpenAI的指引來評估旗下AI模型的潛在風險。
4月,一群AI領域的領導和專家簽署一份公開信,基於對社會有潛在風險理由,要求停止發展一套比OpenAI的GPT-4更有威力的人工智能系統。
本文獲《聯合早報》授權轉載
Sam Altman重返OpenAI 分析:AI領域留住人才至關重要OpenAI風波峰迴路轉 公司宣布Sam Altman回巢任CEO 董事會重組美媒:Sam Altman董事會就回歸OpenAI談判 微軟三藩市備新辦公室OpenAI|路透社:投資者考慮對公司董事會採取法律行動