【科技.未來】語言AI研發戰展開 通用AI指日可待?
上月中,互聯網巨頭Google在I/O年度開發者大會上發表了其人工智能(AI)語言模型最新成果,有望把搜尋變成與AI對話。微軟(Microsoft)、Naver等科技公司也看到潛力,正各自研發語言AI,提供各種新的自動化應用。然而,這些受訓於人類語言的AI,會否也承襲了當中的性別及種族偏見,甚至成為製造陰謀論和假新聞的利器?對於這些潛在禍害,因去年解僱兩名倫理AI科學家而備受爭議的Google,又有否決心解決?
以上是Google上月中展示的AI語言模型「對話應用語言模型」(LaMDA)的最新成果,LaMDA代入成為冥王星,與Google AI研發人員談話。Google行政總裁皮柴(Sundar Pichai)滿意地說:「看到LaMDA如何能夠就任何話題展開對話,實在令人印象深刻。 同樣令人驚訝的是,它的談吐何其合理和有趣。」這次,LaMDA代入成紙飛機:
重新思考搜尋
LaMDA是一種大型語言模型(LLM),建基於Google Research在2017年發表的開源神經網絡架構Transformer。以這架構訓練產生的AI模型,能夠從大量文字數據(如句子或段落)中找出字詞之間的關係,學懂預測某個字詞後出現什麼字詞,從而生成句子、文章。而LaMDA是專門以對話數據訓練而成。皮柴預期LaMDA的自然對話能力可「令資訊和運算更容易取得和使用」,計劃將LaMDA結合到Google的搜尋、語音助手和Workspace功能。
這種進展或許會令我們沿用多時的搜尋引擎從此不再一樣。四名Google Research工程師5月初發表題為《重新思考搜尋:外行人變成專家》的研究,提議以LLM取代現有搜尋方式。用戶只要提出問題,AI就能直接回答。例如搜尋「葡萄酒的健康益處和風險是什麼?」會得出一堆網頁列表,未來更可能是一段文字,直接告訴你紅酒能促進心血管健康,但會染污牙齒之類,並會附上這些內容的出處和鏈接。皮柴則希望最終目標能建立一個對話界面,讓人只要詢問就能在所有Google功能中搜尋任何類型資訊,不論是文字、視像還是音頻。
語言模型研發戰
在LaMDA和MUM之前,Google已在2018年發表AI語言模型BERT。自BERT面世後,近年LLM已成為了科技巨頭之間的研發競賽,爭相以Transformer為基礎,建立更大型的AI語言模型。短期內,這些公司希望以LLM開啟各種自動化應用。例如去年9月取得GPT-3獨家使用權的微軟,上月底宣布會將之整合到商用軟件Power Apps內,自動編寫Power Fx程式碼。這樣,用戶不需要懂得編程,只要輸入「顯示十個產品名稱中帶有某某字眼的訂單,日期最新的排在最頂」之類,GPT-3就能把這段自然語言轉換成程式碼指令。
基於不同語言的獨特性,近年,愈來愈多非英語國家積極投入研發。本月初,北京智源人工智能研究院也發表了高達1.75萬億個參數(parameters)的「悟道2.0」。智源理事長張宏江說悟道也能應用到自然語音理解、機器翻譯、圖像設計等:「例如一間小公司想設計圖示,又不想支付高昂設計費,悟道可以根據文字描述產生圖像,幫助公司設計。」韓國互聯網巨頭Naver上月底發表了HyperCLOVA,是首個以韓文訓練的大型語言AI,具2,040億個參數。Naver表示會用來支援中小企及非AI專長的創作者發展業務。
各國科技巨頭之所以如此重視LLM,並強調參數量,乃因模型擴大規模後,其語言能力明顯得以提升。這在AI研發領域中,對於如何能製造出具真正智能的「通用AI」有重要意義。現時學界對這一點有所分歧,一派學者主張需要先理解人類思想、意識和理性,才能以此建立通用AI;另一派主張只要大幅增加運算能力和AI模型的規模,通用AI自然就會出現。張宏江深信,「大模型+大算力」是邁向通用AI的可行路徑。他預期大型AI模型未來將有如「發電廠」,把數據這「燃料」轉換成智能來驅動各種AI應用,是「AI下一個基礎平台」。
繼續閱讀:【科技.未來】語言AI恐承襲人類偏見 單靠倫理漂白如何釋疑?
(節錄)
上文節錄自第270期《香港01》周報(2021年6月21日)《把搜尋變成對話 語言AI恐承襲人類偏見》。如欲閱讀全文請按此試閱周報電子刊,瀏覽更多深度報道。