過濾不當外語內容有障礙 Facebook恐成緬甸散布仇恨工具
社交網絡Facebook是一個面向世界的社交平台,有使用千百種不同語言的用戶。但隨着用戶人數不停增加,Facebook亦曝露了它的弱點:成為散布仇恨暴力、煽風點火的平台。儘管Facebook正努力補救,但明顯力有不逮,特別在一個英語不通的地區緬甸。
今年3月,聯合國聲明指Facebook已成為針對羅興亞人,煽動仇恨的平台。Facebook創辦人朱克伯格4月在美國聽證會上表示,他們將會聘請更多懂得緬甸語的員工,針對仇視羅興亞人的言論進行過濾。4個月過去,Facebook似乎還是沒有做出甚麼來。
「就如希特拉一樣,要殺絕卡喇」
路透社今日在緬甸活躍的Facebook群組中,找出了過千條的帖子。其中一條上載着一個羅興亞人開的餐館照片,下方留言寫着:
我們要打倒羅興亞人,就如希特拉當年打倒猶太人一樣!一群死卡喇!
這是一篇在2013年的舊帖,「卡喇」是緬甸對穆斯林的蔑稱。在另一篇帖文中,照片上顯示的是一篇報道羅興亞人與警方衝突的新聞,下方留言寫着:
這群非人類的卡喇狗,孟加拉人,他們是要來搶奪我們的土地,我們的水和侵害我們的人民。我們要把他們滅族!
這是一篇在2017年9月,緬甸針對羅興亞人暴力事件最顛峰時的帖子。其他還有如「燒死他們讓他們早登極樂」、「把他們全殺掉後餵豬」之類。路透社發現這些帶有強烈仇恨的帖子已在Facebook流傳最少9年,部分是朱克伯格在美國出席聽證會後才出現。官方未有任何動作,帖子未被刪除。
翻譯錯漏百出 機械無法自行辨識
Facebook近年一直被批評後知後覺,長年對自己平台衍生出的潛在問題置之不理,最終演變成為被政治及種族主義利用的宣傳平台。Facebook的網絡平台服務範圍廣闊,操數以千百計不同語言的用戶日常使用Facebook,語言障礙成最大負擔。
Facebook現時過濾和刪除不恰當內容的方法,主要依賴機械自行搜尋過濾。但Facebook是美國公司,他們開發的過濾系統對緬甸語相當不在行,例如一句「要殺死所有你在緬甸看見的卡喇,要他們一個不留」翻譯成英語可以變成「我要在緬甸有個彩虹」,意思完全不通。因此緬甸Facebook只能依賴用戶舉報,再由人手審核刪除。
但最大問題是人手不足,2015年Facebook只有兩位員工懂說緬甸語。路透社報道指今天Facebook已把相關的工作外判,以確保質素和效率。一位Facebook高層拒絕透露該公司有多少位緬甸員工,但肯定地表示以現時來說人手「並不足夠」。
發展中國家可以預見的炸彈
今天雖然並非所有國家都流行使用Facebook,但無疑Facebook是社交網絡平台中最大規模的公司。Facebook已不再只是網民生活的交流平台,而是一個資訊和消息流通之地,具有相當影響力。在歐美這些發達國家,有相對完善的平台及資源供Facebook建立後勤,確保地區服務不被濫用。
但在如緬甸一類的發展中國家來說相當困難,緬甸有約1800萬名活躍Facebook用戶,每星期有數以百萬的留言被標記,甚或遭舉報內容不恰當,這對缺乏資源的緬甸來說極為吃力。
而這實際只是其中一個例子,Facebook在東南亞其他地區同樣流行,如越南、泰國及馬來西亞等。緬甸羅興亞人事件曝露了在非歐洲語言的地區中,Facebook在執行過濾不當內容時明顯力有不逮。而這亦可預見未來,隨着這些發展中國家使用網絡人數上升,負擔只會愈來愈嚴重。而當發生類似羅興亞人事件的時候,Facebook只會再一次淪為煽風點火的工具。