Facebook演算法如何成洪水猛獸 影響心理健康造成社會分化
Facebook前顧員豪根(Frances Haugen)10月5日出席美國國會聽證會,她早前向媒體爆料Facebook漠視影響青少年心理健康及造成社會分化的問題,牽起風波。豪根把其中一部分的問題歸咎於Facebook的演算法,而這演算法某程度超出了很多人想像的範圍。
所謂演算法(Algorithm)是一種內建的公式,Facebook演算法最直接的作用,就是為每一名使用者投放合適的推送內容。不論是Facebook,Twitter還是其他的社交與網絡平台,因網站的內容極多,為選擇合適的內容顯示給用戶,必須有一套公式存在。
最簡單的例子,是Facebook會因應用戶使用中文和居住在香港,推薦和香港相關的中文內容,而不是其他地區毫無關係的東西。
不過今天的演算法並非軟件工程師直接「寫死」(Hard coding)在平台中,Facebook使用的是經AI學習的演算機械,更準確地說,是軟件工程師製作了一個AI,讓其自我學習,並寫出一套合式的演算法,負責推送文章。
這個AI會根據用戶觀看文章的傾向,從而學習出「甚麼人最喜歡看甚麼內容」,繼而找出相似內容的文章推送給用戶,吸引用戶繼續點擊觀看。演算法如此推送的目的,是讓用戶能長時間逗留在Facebook。
如此運用演算法的當然不僅Facebook,在其他社交及網絡平台都有類似使用。然而,Facebook用戶數目非常龐大,Facebook不僅得悉每一個用戶來自的地方,使用的語言,還有年齡、閱覽時間、瀏覽網絡的習慣、朋友圈、朋友圈的閱覽時間、朋友圈瀏覽網絡的習慣等等,AI可以根據無數的用戶使用習慣,得出更準確的答案。
演算法的推波助瀾
當得知甚麼樣的東西最容易吸引人注意的時候,便能理解為何如此的演算法,會造成今天的問題。人類對聳動的標題、怪奇的現象、駭人的訊息尤為喜歡。而假資訊及散布極端思想的內容,正好就是以這樣的方式包裝。
當用戶前往Facebook尋找新冠疫苗的副作用資訊的時候,Facebook便可能會為其推薦持疫苗懷疑論的相關文章,繼而因應用戶的點擊,Facebook會給予更多相關的內容、短片、網絡群組等等。這些內容部分可能有根據,但也有可能是假的,觀看的人若無法分辦真偽,便可能誤信,並因Facebook不停推薦類似的錯誤內容,而愈陷愈深。
這現象Facebook是知曉的,根據豪根爆料的內部文件和說法,Facebook最少在2016年內部便開始研究這個問題,當年Facebook不僅寄宿了大量極端主義團體,而且還把他們推廣給用戶。這些團體中的成員,有64%都是經Facebook的推薦而點擊參加。
在2017 年,Facebook成立了一個工作組,以了解最大限度地提高用戶參與度是否會導致政治兩極分化,而結論是肯定的。減少兩極分化將意味着對參與度造成打擊,減少用戶逗留在Facebook上的時間。
更進一步的問題,是Facebook不僅只有英語圈的用戶,如上文所說Facebook有大量華語,以至世上不同語言使用者的用戶。Facebook製作演算法的AI,已到達登峰造極的境界,對世界任何角落、任何語言、任何文化背景等都瞭如指掌,都能推薦出用戶喜歡的內容。