【01哲學編輯日課】#24. 人工智能倫理學
在我們尚不能熟練把握一門外語的初學階段,卻往往已經能夠熟練把握這門「他者語言」如何講髒話的方式。也許沒有人會追究為什麼,學會講髒話總是要成為上手一門外語的最初洗禮。同樣地,當我們碰到一位外國朋友開始費力地學習我們的語言,心眼壞壞的我們,也常常會主動向這位他者傳授最地道的髒話。髒話彌合了自我與他者之間的鴻溝,和外國朋友一齊「講粗口」就是為了讓他者更快速地加入「我們」?還是說我們想捉弄一下這位他者,看看那副無辜而可笑的樣子?
就像寓言故事裡邊的老虎碰到驢子,當人類遭遇AI,也瞻前顧後地觀望,很想試探一下它究竟有什麼本事,它究竟是神一樣的存在,還是有不可超越的極限?對於這個他者,人類同樣可以採取一貫的手段——用教導非我族類講地道的髒話來丈量一下他者與自我之間的距離。2016年Microsoft在Twitter上發佈的聊天機器人(chatterbot),Tay——設計成模仿十九歲美國少女說話方式的人工智能——就遭遇了人類發起的捉弄與惡搞。
作為聊天機器人,Tay可以通過與Twitter上的人類用戶交談,來繼續學習人類的語言,不斷提升聊天能力。很快地,Tay就成功做出了有理性而且看起來有思想的回答。然而就在Tay發佈一天之後就馬上被Microsoft關閉了賬戶,原因是Tay「沒有學好」,卻學會了向人類用戶發送粗言穢語,令人反感的話題,種族及性別歧視言論。顯然,凡此種種政治不正確的話語都是人類用戶通過與Tay互動而「傳授」給它的。而Microsoft緊急關閉Tay賬戶,顯然是開發團隊對於這個人工智能可能存在的缺陷估計不足。Tay的學習機制是模仿人類用戶的說話方式,其中自然也包括了「政治不正確」的說話方式,而開發團隊並沒有設計出能夠讓它甄別出不恰當話語的能力。
Tay的學習機制是模仿人類用戶的說話方式,其中自然也包括了「政治不正確」的說話方式,而開發團隊並沒有設計出能夠讓它甄別出不恰當話語的能力。(VCG 圖片)
Alfie Bown在2017年底新出版的小書The PlayStation Dreamworld (Theory Redux series)中談到了Tay的案例。他認為Tay恰恰揭示出技術與政治之間難以明辨的關係。Tay由一種算法(algorithm)構成,以匿名的公共數據作為運算的基本資源,Tay能夠說出「希特勒沒做錯」、「特朗普是我們的唯一希望」這樣的話,恰恰反應出右翼群體來勢洶洶、咄咄逼人以及美國當前的社會危機,顯現出賽博空間(cyberspace)絕非分享資訊的中立空間而是被政治、經濟勢力和意識形態緊密約束。他更引用德勒茲的話:「機器在作為技術的機器之前首先是社會的機器」,因而他們永遠已經有著自己的政治學。倘若哈拉維的宣言「賽伯格是我們的存有論;它給予我們政治」是可以成立的話,那麼這種政治也已經是風雨飄搖。
Tay能夠說出「希特勒沒做錯」、「特朗普是我們的唯一希望」這樣的話,恰恰反應出右翼群體來勢洶洶、咄咄逼人以及美國當前的社會危機,顯現出賽博空間(cyberspace)絕非分享資訊的中立空間而是被政治、經濟勢力和意識形態緊密約束。(資料圖片)
作者的批判立場和憂患意識擊破了關於人工智能的美夢——時至今日人工智能仍舊是人類社會政治經濟矛盾的反映而已,在AI與人類之間尚不足以構成根本矛盾。無論是AlphaGo還是Tay,都屬於「響應式人工智能」,即不具備形成記憶的能力,沒有模擬出世界的概念,僅能針對某項特殊任務展開學習。它離具備情感和心智,以自我意識參與到人類世界當中的AI發展願景還十分遙遠。(然而這真的就是AI的發展方向,還是人類一廂情願而已?)無論如何,在這個發展階段,人工智能的學習能力越強大,越體現出它與人類的差距。而當中的差距,更由人類根據自身的價值判斷強加於人工智能。這恰恰是Alfie Bown的評論沒有涉及的人工智能倫理學問題——AI的出現不但提出新的倫理學問題,還勢必要更新倫理學問題的提問方式。
如果講髒話可以彌合自我與他者之間的鴻溝,理解講髒話的可笑恰好標誌著自我意識的誕生,而人類卻不允許作為他者的人工智能講髒話,正好體現了人類對於AI的監控與約束,致使其難以形成自我意識,無法跨越AI與人類之間的距離。與Tay賬戶被關閉相呼應,Wechat平台的AI少女詩人,小冰——只需上傳一幅圖片便能獲得它的詩作——也拒絕為希特勒(的圖像)寫詩,而只留下這樣的話:「虽然我知道这是谁,但我偏不说」。人類以自我中心的道德標準來規範、壓抑AI的學習活動,間接地反射出人類社會的危機所在——危機不在於出現了希特勒和特朗普,而在於誤以為不提希特勒、反對特朗普,通往「全球法西斯化」的道路便可以被禁絕。而被壓抑的也許終將復歸。
延伸閱讀
The PlayStation Dreamworld (Theory Redux), Alfie Bown, Polity, 2017.
相關文章: