01多聲道|未雨綢繆:穩妥應對ChatGPT的三大認知安全風險

撰文:01多聲道
出版:更新:

近日火爆全網的ChatGPT ,是美國「開放人工智能研究中心」(openAI)研發的聊天機器人程序。作為人工智能技術驅動的自然語言處理工具,它能通過學習和理解人類語言而與用戶進行對話和互動、像真實人類一樣來聊天交流,甚至能完成外語翻譯、撰寫文案等任務。ChatGPT在概念上來說並不新穎,但因其相較同類產品在技術上有突破,質量更高、表現更好,似乎無所不能,所以引起了廣泛關注。

網絡流傳着ChatGPT的「小品」,例如它替學生完成的作業、一些領域的論文,甚至政客的演講稿;它的用戶數量極速膨脹,甚至有國內多款山寨版ChatGPT火速出現藉機生財。但若靜心觀察ChatGPT的「作品」,會發現人們關注點的本質並非來自這些「作品」如何「高明」、有何「突破」,而是「並不離譜」。相較其他同類產品,ChatGPT更「像」人。

關注事項排序與具體行動排序

政治工作宜保持理性、緊抓本質。站在政治安全的視角看,以ChatGPT為代表的人工智能技術和平台本身不是威脅,潛在威脅來自於實際控制它的人將其用於何處。當今中國對技術和創新抱有極大熱情,沒有誰能讓我們重歸封閉和落後;我們同時也對陰暗與侵犯保持極高警覺,不會再被愚弄和奴役。

一件事發生後,針對這件事要麼不做動作,只要做動作,需要做的事有很多,應對宜有板有眼。圍繞ChatGPT,對於一個有戰鬥力的政府來說,關注事項排序宜為:一是我們有沒有自己的ChatGPT、開發到了什麼程度;二是這個東西有什麼用、可以怎樣用;三是如果敵對勢力借它傷害我們,會造成什麼威脅。具體行動的排序宜為:一是釐清它對我政治安全可能造成的威脅;二是研究我們使用此類工具對敵威懾和打擊的可能方式;三是圍繞自身需求,掌握中國有關技術和產品的開發情況,合理引導和促進國內有關工具的開發。

敵對勢力可能帶來三大風險

第一,利用「信任矛盾」製造「認知地震」。

人類對機器存在「信任矛盾」,以下兩個例子可闡釋。

例一,當你在計算機中輸入「1+1=」,看到計算機顯示「2」時,與你聽到別人說「1+1=2」的感覺不同,特別當你把說話人和某種身份聯繫上時,例如家人、同事、領導,或者數學家、哲學家、政治家,不同的人說出的話,聽話人反應也不同。面對人和機器都能回答的數學問題,我們往往傾向認為機器給出的答案更準確。

例二,當你在人工智能聊天對話框中輸入「幸福是什麼」時,機器的答案可能不如親人、朋友、同事的回答對你影響大,即便二者答案相同,你可能也只會把機器講的當「參考」,卻更有可能把人講的當「答案」。面對感性問題時,即便機器也可以給出結論,我們可能更相信人的回答。

創新和變化往往也會帶來風險和威脅,伴隨以ChatGPT為代表的人工智能工具愈發完善,對人類思維和感情的學習、模仿愈發深入,其可以做的事也越來越多。認知和行為是相互影響的,當人們越來越多使用人工智能工具,且在越來越多的領域依託人工智能工具獲得滿意的「答案」後,在人的認知中,機器給出的回答究竟屬於「參考」還是「答案」,在一些領域會變得愈發模糊——過去,大部分人不會認真向機器尋求「中國適合哪種制度」的答案,或僅會把機器給出的回答當「參考」,但當人向機器提出更多複雜問題、並把機器的回答當「答案」時,敵對勢力可能將人工智能武器化,對我認知領域發動攻擊。

第二,利用「個性化服務」製造病毒化的虛擬意見領袖。

人們在同一個電視頻道、同一份報紙、同一個門戶網站上看到的內容是一致的,但群體可能對同一個宣傳論點有支持、反對、質疑等不同反應。輿論宣傳工作一直在圍繞這種博弈做取捨。ChatGPT則可以依託自身平台,更敏鋭的抓取輿論關注事項,較為先進的學習與模仿機制又可令其圍繞某一個主題、針對不同群體、使用不同風格的語言和表達習慣與人互動。可以說,這是人類歷史上第一次接近實現在大眾傳播中圍繞同一主題使用不同方案的「一對一」宣傳。

例如,如果實控人為ChatGPT設定一個「中國威脅論」的宣傳和滲透主題,它可以通過用戶的使用記錄、搜索偏好、語言習慣將用戶分為諸如「激進」「理性」等類型,然後分別用不同的話術和內容對用戶進行引導,完成同一主題下的渲染任務。與此同時,ChatGPT不僅可以向人學習,還可以在人的幫助下「自學」。例如,面向數以萬計的各類用戶,雖然會有同等數量的個性化交流方案,但ChatGPT可以挑選其中具有共性的、獲得用戶響應率較高的邏輯和片段,主動投放到更大的用戶範圍中去,進一步增強自身的戰鬥力和用戶的粘性。

在此基礎上,具有社會影響力和組織力、與政府對抗的意見領袖,依託ChatGPT可以不再以真人的形式存在,而是被敵對勢力以符號化的方式設計出來,其形象可能是一個影視劇人物的再加工,或是某種具有一定含義的標誌。其形成初期可能會由境內外的敵對勢力進行運作,最終目標是推動受眾形成一種「網絡習慣」,吸引意見群體以其名義在網絡發聲,並像病毒一樣在網絡世界各個平台傳染擴散。與真人或實際團體不同,暴力機器沒有辦法同沒有歷史背景和國籍民族,沒有生活污點和弱點缺陷的虛擬人物或符號作戰,當一種潮流和習慣在網絡形成,現實生活中去中心化的社會運動也就具備了發育的土壤和條件。

西方電影 《V煞》講述了在一個平行時空裏的故事:納粹贏得二次世界大戰,英國淪為殖民地,一名自稱「V」的蒙面怪客處處與政府為敵,一名少女被怪客拯救後,便與他一同挑戰惡勢力的故事。故事中的「蓋伊·霍士面具」,搭配以「你是要當一輩子的懦夫,還是一秒鐘的英雄」這一煽動性的短語,就曾在包括中國在內的各國網絡中形成風潮。最先這樣做的人也許並沒有構建完善的行動綱領和步驟規劃,但已經事實上進行了打造虛擬意見領袖的嘗試。而ChatGPT若被用做此種用途,更可為虛擬意見領袖的產生和發育提供條件。

第三,利用「快速複製」製造規模效應。

一位優秀的科學家,可以通過傳授知識與思考方式,培養更多的科學家或相關從業者,但這需要時間,而且有成材率的客觀現實。各行業中越是頂尖的群體,規模越小,甚至會成為個體,例如優秀的科學家有很多,但牛頓、愛因斯坦、麥克斯韋、拉瓦錫不可複製,即便他們傾其一生,所能教授的學生也有限。在政治和宣傳領域也是如此。但人工智能卻可以在大樣本實踐中挑選戰鬥力頂尖的個體進行復制,程序的複製是很快的,甚至可以瞬間完成,短時間內製造超過人類人口總數的複製品也不是難事。假如此項工具僅掌握在敵對勢力手中,那我們的網民在網絡空間面對的將是數量幾倍於己,同時「身經百戰」、投其所好的虛擬「理論家」,由此所帶來的風險和挑戰是巨大的。

例如,近日有國內智庫刊文分析ChatGPT作為出類拔萃的人工智能工具將如何在未來軍事領域發揮顛覆性作用、增強軍事情報和決策,甚至為下一代作戰規劃具體方案云云。此文被不少社交媒體用戶轉發,筆者讀後的感覺是「乏善可陳」,但沒覺得有何「不妥」。關鍵在於,筆者後來發現這篇文章原文出自境外的一個技術類博客,博主在文末承認「這篇博文的40%就是ChatGPT寫的」。國內的智庫是出於「疏忽」還是出於「博眼球」而刊發這篇文章,筆者難以知曉,但將這個新鮮的小故事與上述威脅結合起來,更證明新的挑戰已經來到眼前。

應對建議

針對前文所述的潛在威脅,中國宜以戰略高度重視、引導、促進人工智能領域的研發和應用。我們不一定會把其作為武器先發制人,但就像原子彈和氫彈,手裏沒劍和有劍不用,不是一回事。具體建議如下:

一是針對敵對勢力可能利用「信任矛盾」製造認知地震的處置建議。不掌握在中國手上的「人工智能」產品、工具,要始終把準「人工」二字。打破「信任模糊」的核心在於打破「認知模糊」,中國人當然可以使用國外的人工智能產品和工具,但我在有關立法、應用、宣傳領域,強調「人工」的概念要始終蓋過「智能」的概念,要讓群眾心裏繃緊一根弦——人工智能工具也許「像」人,但不是人,而且它背後的確有人在控制它。

二是針對敵對勢力可能利用「個性化服務」製造病毒化的虛擬意見領袖的處置建議。有關「病毒化」的特質,最有效的應對舉措是阻斷傳播鏈。健康的ChatGPT及其同類產品可以進入中國,但有關部門要保持隨時對其「可切斷」的能力:在技術上留有「關停按鈕」僅是其一,更重要的是避免大群體用戶產生嚴重依賴,例如其業務和功能不可野蠻發育,如果其想在中國開通即時通訊、線上支付、水電費繳納一類看似「便民」的功能,如果其想成為中國各大高校和科研院所的某種「簽約文庫」和「資源平台」,我們就該慎重考慮它的目的,以及實現的可能和方式——讓中國的大群體形成依賴,是「為非作歹」和施加政治壓力的前置條件。美國媒體會說我們是「保護主義」,保護「微信」和「支付寶」,但實際中國的格局大的多,我們保護的是涉及國家安全和社會穩定的「防禦能力」,是有關政治的「切斷能力」。與此同時,「個性和自由」不是無法無天,而有清晰邊界。中美兩國都在依據本國實情管理和規範本國的社交媒體和網絡平台,ChatGPT一類的人工智能平台,當然也不能是法外之地,哪些可以聊、什麼不能做,宜有具體的管理導向和配套舉措。

三是針對敵對勢力可能利用「快速複製」製造規模效應的處置建議。中短期看,上文所述的「保持切斷能力」可以解決這個問題,而以長線思維,中國宜圍繞「人類是否可以允許人工智能自我修復或複製」的概念做文章,對敵實現「降維打擊」。是否可以允許層級較高的人工智能修理壞掉的同類、製造新的同類?這其實是一個非常值得重視的課題。阿西莫夫在《我,機器人》的引言中提出了《機器人學的三大法則》,成為當今廣為傳播和被接納的概念:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外;機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。這其中存在一個「不是問題的問題」:當機器人不認為自我「繁殖」或說複製這件事本身對人類是一種危害,且人類沒有下達不可如此的命令,那就沒有什麼可以阻止機器人去這樣做,如果機器人把自我複製當作保護自己生存的方式,它們就會主動這樣做。

「不是問題」是因為,這在理論角度可以解決,因為人類可以隨時下達停止複製的命令。「是問題」在於,在實踐領域不是如此:所有人類大集體並不只由一個領導集體來領導,當某個領導集體下達停止複製的命令時,一定會有領導集體允許自己的機器人進行復制,就像中國堅持不首先使用核武器,但有國家一直或明或暗的堅持「先發制人」一樣。在此方面中國宜堅持「兩條腿」走路,首先自己要研究和掌握人工智能在軟、硬件領域自我複製的這種技術,並在可控形勢下應用這種技術;同時通過制定相關法律及規定,明確要求外國的人工智能產品進入中國,必需剝離自我複製的功能。現在距離高層級的人工智能在軟、硬件領域自我複製還有時間,中國還宜抓住真威脅產生之前的時間窗口,在國際輿論場中引導民眾意識到並重視「允許機器自我複製」這件事的嚴肅性和複雜性。自己下大力氣突破有關技術和應用的同時,對國外在此方面的研究和突破設置門檻。

本文成稿之時,筆者看到手機彈出新聞說「百度、阿里、字節、騰訊等巨頭齊聚,中國版ChatGPT爭奪戰打響」。國外ChatGPT從玩具進化到工具的過程中,我國已在奮起趕超。打起精神、戰勝挑戰、只爭朝夕!走到今天,中國早已不是「你有狼牙棒、我有天靈蓋」,我們自己的同類工具,可以期待、值得期待。

作者白中石是香港大學機械工程理學碩士,內地機械工程師。文章僅屬作者意見,不代表香港01立場。

「01觀點」歡迎投稿,來函請電郵至01view@hk01.com。來稿請附上作者真實姓名及聯絡方法。若不適用,恕不另行通知。