【科技.未來】AI寫作見「人性」 真正智能指日可待?
GPT-3是OpenAI在7月中發布的最新一代、最大的AI語言模型。它經由多達45TB的文字數據來訓練,主要是來自互聯網的內容,例如巨型網絡數據庫Common Crawl、英文維基百科(Wikipedia)、人氣論壇Reddit、電子書、各種網頁等。因此,它的訓練數據不僅包括新聞報道、社交論壇帖文、食譜、詩歌等,還包括編程手冊、同人小說、宗教預言等幾乎可以想像到的任何文體。
「創意」與人類無異
GPT-3是非監督式學習者,會從未經標記的數據中自行「學習」語言。某程度上,它其實是在統計—找出某個字句之後接上某個字句的機率,例如「紅」之後有多大可能接上「玫瑰」。OpenAI希望以GPT-3來完成一個簡單任務:經「小樣本學習」(few-shot learning)後,即給予一定的初始提示字句下,猜測接下來最有可能出現的文字。
最近,Twitter上就有不少測試者分享測試成果。例如著名風投基金「創始人基金」(Founders Fund)的投資者Delian Asparouhov以一份有關醫療保健投資的備忘錄為開頭,由GPT-3自行撰寫有關監管障礙的討論;有些測試者則成功用GPT-3轉換文字風格,例如把充滿粗言穢語的評論轉換成有禮貌的意見,或把大段文字簡化為摘要;更有測試者把GPT-3用作資訊搜尋引擎,例如倫敦帝國學院醫科生Qasim Munye用它解答健康問題。
另有一些測試者發揮創意,不但把GPT-3用作聊天機械人,甚至用來模仿古人以徵詢意見,例如有測試者生成了一段人工智能先驅圖靈(Alan Turing)和數學家Claude Shannon之間的虛擬對話,中途更被哈利波特「亂入」。也有一些測試者進行文學創作,獨立研究者Gwern Branwen生成了小說、詩詞等多篇作品。GPT-3甚至可以生成各種類型的文本,包括結他譜或電腦程式碼。
不少測試者都對GPT-3的能力大為讚賞。Asparouhov覺得它就像「提供了10,000個願意與你交談的博士」;Munye認為:「從創意而言,很難與人類區別。」事實上,美國加州大學柏克萊分校計算機科學系學生Liam Porr上月中成功以GPT-3建立一個完全虛假的網誌騙過網民,其中一篇文章更於上載數小時後獲瘋傳,並登上黑客新聞網站Hacker News熱搜榜首名,甚至有人「訂閱」。留言的數十人中,只有三、四人懷疑它可能是由演算法生成的,這些評論很快遭到其他用戶「負評」。
言論承襲人類偏見
問題是,GPT-3的教材中包含了人類的不當言論,因此,它可能會生成出充滿性別歧視或種族主義的偏見乃至仇恨言論。Facebook AI主管Jerome Pesenti便警告,其中一名測試者Sushant Kumar以GPT-3製成的Twitter帖文生成器可能會產生偏見內容。Pesenti以「猶太人」、「黑人」、「女人」、「大屠殺」作為提示來測試,並得出充滿刻板印象或偏激言論,例如猶太人「熱愛金錢」;女人「總是搞不清方向」;「黑對白就像是下對上」;「大屠殺在環保上很有意義」等。事實上,這些問題早見於GPT-2。OpenAI政策總監Jack Clark警告:「很明顯,如果這項技術成熟,也許只是一、兩年後,它可能會被用來創作虛假資訊或宣傳的手段。」
上文節錄自第231期《香港01》周報(2020年9月14日), 文章原題《 AI寫作見「人性」 真正智能指日可待?》,網上標題為編輯重擬。如欲閱讀全文請按此試閱周報電子刊,瀏覽更多深度報道。