私隱專員鍾麗玲:AI 存私隱風險 籲勿向聊天機械人披露個人資料

撰文:何瑞芬
出版:更新:

現代科技日新月異,人工智能(AI)更為普及。個人資料私隱專員鍾麗玲表示,聊天機械人AI雖然減輕不少工作,但資訊非百分百準確,甚至在回應中以出乎意料的方式泄漏個人資料。她指若向聊天機械人輸入個人資料,AI或會儲存其資料庫,並且在回答其他人問題時披露;去年更有研究人員發現要求市場上某聊天機械人不斷重複一些單字時,機械人會輸出訓練資料,當中包括姓名、電話、電郵地址等個人資料。

她說,私隱專員公署於今年初已就28間機構使用AI的情況完成循規審查,並未有發現任何違規情況,但市民仍要學會在AI中保障自己,不可隨便透露任何個人資料。

私隱專員公署。(資料圖片)

個人資料私隱專員鍾麗玲在港台《香港家書》提到,AI雖然便利了工作,但所提供的資訊,並非百分百準確,甚至在回應中以出乎意料的方式泄漏個人資料。她舉例指,若向提供予公司內部員工使用的聊天機械人輸入自己個人資料,聊天機械人或會儲存至它的資料庫,在回答其他員工的問題時披露這些資料,構成私隱風險。

她說,去年有研究人員發現,當他們要求市場上某聊天機械人不斷重複一些單字時,它雖然會先按指示重複該單字,但不久之後,它就會開始輸出訓練資料,當中包括姓名、電話、電郵地址等個人資料。

個人資料私隱專員鍾麗玲表示,聊天機械人AI可以減輕不少工作,但資訊非百分百準確,甚至在回應中以出乎意料的方式泄漏個人資料。(私隱署提供)

鍾麗玲表示,訓練AI模型需要海量數據,隨着AI模型不斷「升呢」,它們對數據的「胃口」越來越大,甚至有報道指一個知名品牌的聊天機械人模型的開發者,從互聯網上收集了多達3000億字來訓練模型,而該些數據很大機會包含個人資料。

鍾又說,AI輸出的資訊可能不準確,具歧視性或帶有偏見,又引述美國研究指,許多人臉識別技術系統錯誤識別有色人種面孔的可能性比白人高達10至100倍,原因是訓練數據中屬有色人種的數據不足;若AI系統是用於診斷病人,但分析錯誤,導致醫生「斷錯症」後果就不堪設想。據報道,美國有一名血癌病人被AI判斷為患有敗血症,需要進行抽血等醫療程序,結果卻發現AI誤診,白白增加了病人感染風險和醫藥費。

鍾麗玲續稱,AI數據安全風險同樣不容忽視,也有資料外洩風險,更可能因為黑客入侵或系統設定出錯等不同原因而導致資料外泄。去年也有一宗牽涉AI聊天機械人的嚴重資料外泄事故,除了泄露了部分用戶過往對話的標題,更泄露了用戶的姓名、電郵地址和信用卡號碼的部份數字。

網上現時有不少AI聊天機械人。圖為xAI的Grok聊天機械人和ChatGPT標識。(Reuters)

私隱私隱專員公署今年初已就28間機構使用AI的情況完成循規審查,並未有發現任何違規情況,公署出版《人工智能(AI):個人資料保障模範框架》協助機構利用AI時遵從《私隱條例》的相關規定等。

她續稱,作為不同AI工具的使用者要學懂保障自己及他人的個人資料私隱,當使用聊天機械人時不可隨便透露任何個人資料。