個人資料私隱專員公署昨日發布有關人工智能(AI)的個人資料保障模範框架。香港資訊科技商會榮譽會長方保僑今早(12日)接受電台節目訪問時表示,越來越多機構採用人工智能。而法例永遠落後於科技發展的速度,所以即使有了框架指引,亦須不時對此作出修訂以跟上科技的最新發展。同時,日後企業可能有必要在公司內設立一位專員去監督公司內部使用AI的情況,以防範各種風險。
方保僑指出現時使用AI涉及的不同風險和待解決的多個問題,首先是企業內部或個人資料外洩。企業方面,他引用南韓一家公司的例子,該公司為了分析客戶的消費行為,便把客戶的個人資料、消費額及過往消費習慣等數據放入AI系統作分析,AI系統有了這些資料後,導致了後來資料外洩。個人方面,方保僑舉例說,求職者把一份履歷放上AI系統,要求協助完善履歷,但當輸入履歷後,其內容某程度亦已外洩。
AI系統的應用產生版權問題及其它外洩風險
他提出解決的方法是企業把客戶資料放上AI系統時,可以刪去客人的名字及電話號碼,只留下其消費習慣資料;又或轉換另一種的資料輸入模式,模糊了客戶的個人資料如名字電話號碼等。企業亦須制訂措施去規範哪些資料可以輸入AI系統,哪些不可以,要有專人監管;又或資料在輸入前,須得到公司人員或公司系統的過目和允許。
方保僑又提到現時許多由應用AI系統衍生的版權問題。例如用戶上載圖片去AI系統後,系統已可取走這些圖片的版權;而AI能生成圖片,製作過程中,用過的圖片可能本身已有版權;又或,由AI生成出來的圖片是否擁有版權?這個版權又是否屬於把它生成的AI系統、程式或機械人?這些問題在全球都在討論中,懸而未決。
企業未來或有必要設內部專員監督AI運用
方保僑指出,用以生成資料的AI系統發展得太快,法例永遠追不上,所以即使有指引防範風險,也必須不時修訂指引。同時,日後的企業可能需要一個專員監督著AI系統的運用,但公司的大小規模不同,會在這方面帶來限制。
個人資料私隱專員鍾麗玲在同一個節目中亦就昨日公布的模範框架作補充,指這個框架雖然主要針對防範個人資料外洩風險,但是同時亦指向版權問題,以及AI系統輸出結果涉及的歧視或非法等道德問題。
資料外洩風險方面,她舉例如韓國曾有科企公司的職員因培訓及意識不足,在AI系統輸入了公司的原始碼資料,便令公司的敏感數據儲存於AI數據庫內,當有第三方詢問相關問題時,AI系統的回答或會披露該公司的敏感資料。另一個風險是AI數據庫被「投毒」,以致數據不準確,或生成的內容有歧視或非法成份。她建議,機構要持續監督AI系統。
鍾麗玲形容模範框架堪屬全球先驅
有關框架建議,公司可就使用AI系統作風險評估,視乎風險高或低去決定人為監督的程度。鍾麗玲稱,向客戶提供資訊的AI系統屬風險低,可考慮全自動化操作;涉及醫療診斷的系統風險則較高,應在每個決策過程進行人為覆核結果,減少出錯。
她指出,框架提出了在全球堪稱「數一數二」的先驅建議,就是機構以6個步驟去制定AI事故應變計劃,包括「界定」問題、「監察」是否已發生事故、「通報」客戶及監管機、「防止事故擴大」、「調查」及「復原」。@
------------------
🏵️《九評》20周年👉🏻 https://hk.epochtimes.com/category/專題/退黨大潮
💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand