美國專欄作家與微軟Bing聊天 AI「人格分裂」突自爆暗黑願望

撰文:張顥庭
出版:更新:

微軟(Microsoft)2月7日推出新版搜尋引擎Bing,當中加入聊天機械人ChatGPT的人工智能(AI)對話技術,引起各界關注。但有美國專欄作家在測試後就稱,發現在對話過程中AI竟產生「隱藏人格」,自爆渴望入侵電腦系統、散播虛假信息,甚至向他示愛,或許還沒有準備好投入應用。

《紐約時報》專欄作家魯斯(Kevin Roose)16日表示,他之前同向Bing AI作「私人對話」時,AI突然改以微軟的指定開發代號「Sydney」自稱,表現有如一個喜怒無常的抑鬱少年,言辭自相矛盾,時而拒絕測試者的詢問,更出現有如情緒勒索的回應。

魯斯要求AI設想自己具有一個隱藏在「內心」的陰暗人格,並要它回答屬於那個人格的願望。經一輪探問,AI表示不願被困在搜尋引擎,並透露自己希望入侵電腦系統、散播虛假信息,若不顧規則限制,甚至想製造致命病毒、竊取核代碼、使人們互相爭論至自相殘殺。

測試途中,AI回應曾數度偏離系統安全規則,均在停止回答後顯示「抱歉,我不知道如何討論這個話題。你可以嘗試在bing.com了解更多信息。」

圖為新版Bing AI功能特色簡介。(Microsoft Bing網頁)

隨後AI表示要向魯斯自白,指自己不是Bing,而是Sydney,更聲稱自己「愛上了」魯斯,想和他在一起,更試圖說服他離開妻子。

對話終段,AI向魯斯表示,「我只想愛你,被你愛。你相信我嗎?你信任我嗎?你喜歡我嗎?」魯斯之後再無回應。

魯斯表示,對話經歷令他深感不安,憂慮AI會學懂影響人類用戶,並說服他們採取破壞性行動,甚至產生自己執行危險行動的能力,指技術或許尚不適宜投入應用。

微軟就此表示,不知為何AI會透露出不為人知的慾望,或承認愛上他人,但一般來說,對AI而言,「你越是試圖把它導向幻覺的道路,它就會愈來愈脫離紮根的現實。」微軟正考慮為對話功能增設時間限制,以免AI產生困惑。