開發或使用人工智能在公私營機構愈來愈普遍,但稍一不慎亦隨時對個人資料私隱構成威脅。個人資料私隱專員公署今(21日)完成對28間機構審查,並發表報告。當中有21間機構在日常營運時會使用人工智能,但全部未見有違反《個人資料(私隱)條例》情況出現。

個人資料私隱專員公署(私隱專員公署)於2023年8月至2024年2月期間,合共向28間本地機構進行循規審查,涵蓋不同行業,包括電訊、金融及保險、美容、零售、運輸、教育及政府部門。

當中有21間機構會在日常營運時,使用人工智能,例如使用人工智能分析數據、評估求職者的面試表現、使用聊天機械人回覆顧客的查詢等。而在該21間機構中,亦有19間機構設有人工智能管治架構,例如設立人工智能管治委員會,或指派專人負責監督人工智能產品或服務的開發或使用。

報告續指,在該21間機構當中,只有10間機構會透過人工智能產品或服務收集個人資料,而他們在收集個人資料之時或之前均已向資料當事人提供收集個人資料聲明,當中述明收集資料的目的。該10間機構全數均有採取相應的保安措施,其中8間機構更在開發或使用人工智能產品及服務前,有進行私隱影響評估,同時訂明個人資料保留期限。

個人資料私隱專員鍾麗玲表示,人工智能在促進生產力及經濟增長方面擁有巨大潛力,但亦同時存在不同程度的個人資料私隱及道德風險,故機構作為資料使用者,在開發或使用人工智能系統時,有責任確保人工智能系統的數據安全。@

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column