私隱公署AI保障個資框架 方保僑稱現可行 惟日後有修訂空間

撰文:何倩瑜
出版:更新:

私隱專員公署昨日(11日)發表《人工智能(AI):個人資料保障模範框架》,涵蓋4個範疇:希望機構使用人工智能系統時,進行風險評估及監督、降低個人資料外泄風險。香港資訊科技商會榮譽會長方保僑在電台節目上表示,公署發表的框架現階段來說是可行的,但「法例永遠落後於科技」,認為日後還會有修訂空間。

香港資訊科技商會榮譽會長方保僑今日在港台節目《千禧年代》中表示,《人工智能(AI):個人資料保障模範框架》,現階段來說是可行的,但「法例永遠落後於科技」,加上AI屬較新的技術,發展得快,認為日後在框架上還會有修訂空間。

香港資訊科技商會榮譽會長方保僑今日在港台節目《千禧年代》中表示,框架現階段來說是可行的,但「法例永遠落後於科技」,加上AI屬較新的技術,發展得快,認為日後在框架上還會有修訂空間。

他表示,現時不論個人或公司,都有使用AI的趨勢,AI的普及化,預料都會面對資料外泄等風險,方保僑建議在使用AI時可刪除、轉換,或模糊名字、住址等重要訊息,「當然最簡單就係唔好比個人資料AI啦」。

AI的使用率越來越高,除了有資料外泄風險,亦會產生倫理及道德問題,方保僑舉例指,現在不少圖片都由AI生成,但版權則成為一個大問題,難以分辨版權持有者,「(版權問題)依加已經好嚴重」。

私隱專員公署昨日(11日)發表《人工智能(AI):個人資料保障模範框架》,並同日發表「懶人包」助企業、市民了解。(私隱專員公署圖片)

私隱專員鍾麗玲在節目中指,風險評估方面,公署建議針對採購過程或系統更新後,由跨部門團隊作評估,此外也可按外泄資料風險程度,決定應否採取人為監控或介入,例如,機構使用AI提供資訊予客戶作自動化的決策等,屬風險較低;至於用AI協助疾病斷症,屬高風險,每個流程都應有該醫護人員審核,以減低出錯機會。

鍾麗玲表示,框架亦提到涉及人工智能事故應變系統的6個步驟,先介定是否屬於人工智能系統的事故,繼而作出通報,防止擴大,作出調查以及如何復原等。她又說,如人工智能事故涉及私隱,亦有機會涉及道德問題,機構都要注意。

公署發表的「懶人包」,包括運用AI的企業要制定管理、監察系統。(私隱專員公署圖片)