今年4月,傳出亞馬遜公司使用人工智能(以下簡稱AI)系統追蹤員工效率,提醒動作變慢的員工,並自動開除未達目標者。同樣在4月,一位布朗大學(Brown University)的學生被誤認為是斯里蘭卡爆炸案的疑犯,起因也是斯里蘭卡當局的臉部辨識AI出錯。
這些事件顯示,當人們越來越依賴AI進行決策,將AI系統引入司法、金融、僱用等重大議題時,可能會造成隱憂。「我最擔心的是,我們想用來解決問題的系統,最終可能會加劇這些問題。」紐約大學的AI Now研究所共同創辦人凱特.克勞福德(Kate Crawford)如是說。
AI為甚麼會出錯?
過去,人們相信AI的一個理由是,AI不像人類受情緒、疲倦所影響,可直接分析事件進行準確判斷。但許多證據表明AI也會有「偏見」(AI bias),並不總是像我們想像的那麼客觀真實。一項調查顯示,部份美國法院採用的累犯風險評估軟件COMPAS,在評估非裔美國人時準確性較低,可能高估他們成為累犯的機率。執法單位的面部辨識系統在婦女、青少年和少數族裔上,錯誤率也比較高。這種情況,被稱作「AI偏誤」或「演算法偏誤」,怎麼形成的呢?
1. 偏誤來自於AI的學習過程
AI的準確度需要經過訓練,訓練時提供的資料如果不足,無法反映複雜的真實世界,就會造成AI有偏誤。Edge Case Research共同創辦人暨行政總裁華格納(Michael Wagner)指出,在訓練自動駕駛車AI時,儘管感測器已分析了數千或數百萬個人類影像,AI還是會忽略坐輪椅的使用者或穿著螢光背心的建築工人,因為這些例子在數據庫中是少數。
華格納認為,安全可靠的產品不僅需測試已知的偏誤,還應該仔細尋找新的以及意想不到的新偏誤,而這些偏誤可能不會被發現,直到產品被廣泛運用。
「機器學習與人類學習相當不同」,華格納說,「例如電腦可能會漏掉一個站在垂直物體(如電線杆)附近的人。你想過這個嗎?」
2. 面對偏見,AI沒有思考能力
AI程式也可能「學會」人類的偏見。訓練AI時,它們依靠從大量數據中找尋不可見的模式來分析信息。當這些資訊中隱藏了人類的偏見時,AI會複製這樣的偏見。但AI和真人不同,在面對偏見時,它們沒有思考能力。Google決策智能主管凱西.科茲科夫(Cassie Kozyrkov)表示,AI只是收集數據、呈現模式的工具,永遠不會自己思考,
3. 抽象價值無法被合適定義
出錯的另一個原因是,當人類試圖讓AI進行涉及公平、正義、信賴等抽象價值的決策時,因為無法將抽象意義用數學術語呈現出來,導致AI的判斷違背人們的期待。
例如,一家銀行希望預測貸款申請人的信譽度,「信譽」是一個模糊的概念。為了將其轉換為可以計算的內容,就會將「信譽」轉變為可量化的因素。如果貸款模型發現,老年人有較高的違約可能性,並根據年齡減少了放款金額,就可能造成非法歧視。
AI金融平台AppZen的聯合創始人維爾瑪(Kunal Verma)也表示,如果申請人居住在很多人拖欠貸款的地區,系統也可能將其判斷為不可靠。
涉及工作的爭議
許多研究都指出,在各行業中引入AI技術,可能造成許多人失業。牛津經濟研究院(Oxford Economics)在2019年6月的一份報告中預測,到2030年,機械人將取代全球8.5%的製造業工作職位(約2000萬個職缺)。不少行業的僱員因此感到擔憂,他們擔心自己的專業能力被電腦取代。
與此同時,也有許多人擔心,人們試圖將演算法無法處理的問題交給AI判斷。例如:亞馬遜公司曾借助AI將求職者予以排名,但後來發現該系統傾向錄用男性求職者,儘管工程師進行調整後仍無法解決,最終只得放棄該計劃。
麥肯錫全球研究所(MGI)的研究發現,具有「不可預測」、「具備極專業知識或技能」、「需與利益關係人互動」等特性的工作電腦難以勝任。如果我們勉強將這類任務交給電腦處理,可能就會出現各種錯誤。
像是司法、執法等工作,就涉及了需要衡量各方的公正性,或是在極短時間做出關乎生死的判斷,AI演算法是否能承擔這樣的責任?一些改過自新的人所做的努力,在演算法的計算中能否被看見?
或許,我們要記得,人工智慧並非萬能,只是一種工具,最終不能代替我們來思考。#
------------------
🏵️《九評》20周年👉🏻 https://hk.epochtimes.com/category/專題/退黨大潮
💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand