私隱公署制定規管AI指引 若出現事故須暫停運作
【有線新聞】私隱專員公署發布《人工智能個人資料保障模範框架》,制定規管人工智能AI指引。
指引列明,機構在採購AI系統時,須要成立管治委員會,協助制定AI使用目的、管治策略等。若出現AI事故,例如涉及歧視等內容,須暫停系統運作,亦要向公司董事局匯報。
機構亦應留意當中涉及的個人私隱如何處理,個人資料私隱專員鍾麗玲:「譬如掃描了虹膜後成立了資料庫,但相關項目原來無法找回。掃瞄虹膜後參加者的相關數據並非百分百找到,變相一些客戶或參加者如果想刪除自己的虹膜紀錄,或更正自己的登記紀錄,原來找不到,這便違反了私隱條例的相關規定。」