OpenAI前資深員工狠批公司只顧開發「光鮮產品」 漠視安全隱患

撰文:王海
出版:更新:

OpenAI 的一名前資深研究員萊克(Jan Leike)表示,這家以開發ChatGPT而聞名的公司將開發「光鮮的產品」置於安全之上,並透露他與公司在關鍵目標上的分歧達到「臨界點」後辭職。

作為 OpenAI 超級對齊(Super Alightnment)的前部門聯席主管,Jan Leike 是集團旗下在人工智能安全領域關鍵的研究員,確保強大的人工智慧系統遵循人類的價值觀和目標。 他離職的時間點極其微妙,因為下週首爾將舉行一場全球人工智能峰會,屆時政界人士、專家和技術高管都將在會上討論對人工智能技術的監管問題。

在這家總部位於三藩市的企業剛推出其最新的人工智能模型 GPT-40 幾天後,萊克選擇請辭。 他的離職意味著,在OpenAI 聯合創辦人兼超級對齊部門聯席主管蘇茨克韋爾( Ilya Sutskever) 辭職後,再有兩名資深安全研究人員於本週離職。

萊克在5月17日發布的X帖文中詳細說明他離職的原因,他在帖子中表示,有關人工智能安全的企業文化已變得無足輕重。「在過去的幾年裏,安全文化和工作流程已經讓位給光鮮的產品,」他寫道。

OpenAI成立的目標是透過人工智慧(公司內部將其描述為「通常比人類更聰明的人工智能系統」)造福全人類。 萊克在他的X貼文中表示,在過去一段時間以來,他一直與 OpenAI的管理層就公司應該優先處理的工作出現分歧,但這個僵局「終於來到臨界點」。

萊克表示,在成功開發 Dall-E圖像生成器和 Sora 影片生成器的基礎上,OpenAI 應該投放更多資源確保下一代人工智能模型的安全、為社會帶來正面影響及其保密性和安全性。

他指出:「這些問題很難解決,我擔心我們無法實現這一目標。」他補充說,他的團隊要進行研究變得「越來越困難」。

「建造比人類更聰明的機器本質上是一項危險的工作。 OpenAI代表全人類肩負著巨大的責任。他強調 OpenAI 必須成為一家安全至上的通用人工智能(AGI,全稱 Artificial General Intelligence) 企業。

OpenAI行政總裁爾特曼(Sam Altman) 在X上發文回應萊克的帖文,感謝他的對公司在安全文化方面的貢獻。

「他是對的,我們還有很多事情需要做; 我們致力於做到這一點,」他寫道。

身兼OpenAI首席科學家的蘇茨克韋爾在宣布離職的X貼文中寫道,他相信OpenAI 在目前的管理層領導下「將打造出既安全又有益的 AGI」。 在去年11月,蘇茨克韋爾最初支持解除奧爾特曼作為OpenAI行政總裁的職務,但在公司內部發生了幾天的騷亂後,他又支持讓奧爾特曼復職。

就在萊克發出警告之際,一個國際人工智能專家小組發布了首份有關人工智能安全的報告,該報告指出,對於強大的人工智能系統是否能夠迴避人類控制的可能性存在分歧。 然而,這份報告提出,監管機構可能會因科技的快速進步而變得落後,並警告「科技進步的步伐與監管反應的步伐之間可能存在差距」。