【科技.未來】社交網絡以AI「消毒」 但AI可判斷「不當」內容?
假帳號、假新聞、種族仇恨言論、欺凌、暴力……每一個都是近年社交媒體無法迴避的大問題,近期又被指為導致自殺的催化劑,英國一名父親直指Instagram在這方面的失職是女兒自殺的幫兇。難怪Instagram母公司Facebook本月中發表報告和數字,強調藉着不斷改善的人工智能(AI),正在移除平台上的不當內容,包括以辨識自殺內容來提供救助。這種應用也見於Google和微博等社交媒體或科技公司。
然而,機器學習大大受限於其訓練數據的多寡和準確性。例如Facebook曾辯稱沒有足夠第一身射擊影像,讓其演算法辨識今年3月新西蘭基督城清真寺槍擊內容。非主流的語言也是另一問題。去年,Facebook被指消除針對羅興亞人的種族仇恨言論時反應過慢期,其安全作業副主席Guy Rosen坦言需在緬甸做得更好,但沒有太多緬甸語的內容作訓練數據。雖然Facebook現時會把一些關鍵審查字眼以不同語言偵測,但英國智庫策略對話研究所(ISD)行政總裁Sasha Havlicek對《金融時報》表示,這系統仍比較擅長偵測恐怖分子所用的某些語言,例如ISIS或蓋達組織所用的。Havlicek認為這意味着「互聯網公司仍未跟上極右派的挑戰」。
而且,人類的語境或許不是AI可以輕易掌握的。Card坦承:「分析人類語言的細微差異十分複雜。團隊面對的一大挑戰是,很多可能表示自殺意圖的字詞,例如『殺』、『死』、『再見』,都常見於其他語境。人類或許能辨認出『我工作多到想死』未必定是真的想尋死,但你又如何教導機器理解這種語境?」 Facebook認為AI總要有人類為它把關,「大家很多時會視之為人類與機器的對立,我卻認為是『人類擴張』。」Schroepfer說。
況且,這些不當言論和行為即使在現實世界中,也未必有一致看法和定義。正如《時代》雜誌指出,在過往一些有關網上欺凌的研究中,受訪者有否感受到欺凌的差異可以大到從5%到72%不等。主要原因就如Instagram公共政策主管Karina Newton所說:「欺凌之所以難以解決,是因為人人定義不同。」
欺凌的方式也會隨時日而變。現時,Instagram上有大量所謂傳統欺凌行為,當中涼薄留言、侮辱和恐嚇最為常見。一些不當字眼很容易被Instagram的文字分類器察覺,但潮語會不斷改變和因文化而異,尤其是青少年文化。用戶也發現他們受到語言以外的欺凌。例如,在Instagram上有不少所謂「仇恨專頁」,即一些匿名帳號設立來只為冒充或取笑某人:某男友或會在一則顯示他與其他女性在一起的帖文中故意標籤前度;某女生可能會在一則帖文中標籤了大堆朋友而故意遺漏某人;又或把別人的照片截圖下載,修改後在群組間瘋傳取笑;甚或在某人上載的照片中重複留下同一個表情符號來達到某種跟蹤騷擾效果。
這些不當使用的用戶也不會坐以待斃。Facebook表示,考慮到有人會修改本來想發布的不良內容來避過審查,所以叮囑在不同地區的人類審查員時刻留意各種新手法,以加強外部合作。例如阿拉巴馬大學伯明翰分校(UAB)正協助他們跟上毒品的各種新穎叫法代號。Schroepfer解釋:「其實這是一場對抗遊戲。對手們會交換各種竅門和技巧,例如只要以某種方式剪片、加個外框,就可避過審查而發布。」
為建立真正有效的AI,Instagram正大量訪問用戶,希望從他們的角度了解各種可能出現的欺凌形式。Newton說,其公司將意圖「騷擾或羞辱他人」列為廣義欺凌內容。首席工程師Yoav Shapira的團隊再細分為七大類:羞辱、恥笑、恐嚇、身份認同攻擊、不尊重、非願意接觸和背叛,希望最終建立一個經訓練後能理解每個概念的AI。
Facebook這種善意得到紐約大學朗格尼醫學中心生物倫理部門創辦人Arthur Caplan讚賞,但他提醒:「不論是Facebook還是其他公司,我們不肯定他們有多可信、可保障多少私隱。這帶出更闊的問題:到底我們是否對大型社交媒體有足夠的監察?即使他們想做好事,不等於他們做得對。」例如史丹福大學生物醫療倫理教授David Magnus解釋,現時多數科技公司都不在美國聯邦監管人體研究的「通例」(Common Rule)監管範圍內,不是《健康保險便利和責任法案》的涵蓋機構:「因此,他們不需要達到現有對於醫療資訊所要求的保密性。」耶魯大學法學院資訊社會計劃訪問學者Mason Marks更主張,Facebook的自殺評分系統、致電警方,令用戶最終或會接受自願精神評估的做法,足以被視為醫療行為,政府理應監管,要求Facebook提供安全和有效的證據。
至於社交媒體可以預防自殺到什麼地步,有些學者就質疑他們沒有觸碰到問題核心,即演算法如何向用戶呈現內容。哈佛大學甘迺迪學院科技與社會轉變研究總監Joan Donovan解釋:「這些演算法被設計為向你顯示它們認為你最感興趣的內容,令你更久地留在平台。這樣,它們就傾向顯示新奇古怪的內容。」Havlicek也同意,她補充:「這根本不是公平的競爭。若放大極端訊息的結構失衡早已存在,這是毫無意義的。若不處理放大極端主義背後的技術架構,那就沒有方法可以戰勝。」
更根本的是,演算法無法觸及造成欺凌或自殺的更深層原因。法國社會學大師涂爾幹把自殺分為自我本位型、利他型、失序型、宿命型,各有複雜的個人與社會互動成因。事實上,樹洞救援隊成員、北京心理諮詢師李虹就發現,不少樹洞輕生者的共通點是患有不同程度抑鬱症,而社會對抑鬱症的忽視無形中促成自殺。而且,在拯救了輕生者後,還要花時間長期聊天,甚至幫助解決現實生活困難,一些沒有真正解決源頭的,獲救之後又會再自尋短見。終究,有份開發的Facebook工程師Dan Muriello也坦言:「我們不是醫生,也不是在嘗試作精神健康診斷,只是想盡快把資訊傳給合適的人。」
相關文章︰
上文節錄自第190期《香港01》周報(2019年11月26日)《阻止不當內容與自殺 AI協助社交媒體「消毒」》。
更多周報文章︰【01周報專頁】
《香港01》周報,各大書報攤、OK便利店及Vango便利店有售。你亦可按此訂閱周報,閱讀更多深度報道。