人工智能(AI)先驅辛頓(Geoffrey Hinton)表示,AI技術的進步正在將世界推入「一個巨大不確定的時期」。隨著技術變得更加智能,這位被稱為「AI教父」的專家強調了人工智能可能對人類造成的六種危害。

據CTV報道,周三(6月28日)在多倫多舉行的北美科技大會「碰撞」年會上,辛頓解釋說,使用AI的一些危險源於它可能會產生控制他人的慾望。

辛頓說:「我們必須認真對待這種可能性,如果它們變得比我們更聰明,這似乎很有可能,並且它們有自己的目標,它們很可能會制定目標進行控制,如果它們這樣做,我們就有麻煩了。」

這位認知心理學家和電腦科學家今年早些時候從Google辭職,以便公開地談論AI的潛在危險。 隨著AI技術通過ChatGPT等工具變得更容易為公眾所接受,辛頓幾個月來一直在表達他的擔憂。

辛頓成為此次多倫多科技大會的中心,他向百名與會者發表了講話,座位很快就滿了,很多人坐在地板上。來自世界各地的四萬多人齊聚多倫多參加今年數的 「碰撞」 技術大會,會中幾乎每個演講都涉及AI的廣泛影響。

辛頓表示,以下是AI可能對人類造成的六大主要危害:

1. 偏見和歧視

使用帶有偏見的數據庫,人工智能技術和ChatGPT等大型語言模型能夠產生同樣有偏見的答案。

例如,一位推特用戶曾發布帖子顯示,聊天機械人編寫的代碼表示,只有白人或亞洲男性才能成為優秀的科學家,這一回答是根據其數據庫得出的。

2. 戰鬥機械人

世界各地武裝部隊正生產戰鬥機械人等致命自主武器。「國防部將建造它們,我不知道如何阻止他們這樣做。」辛頓說。

上個月,簽署《特定常規武器公約》的國家召開會議,討論致命自主武器系統。 然而,經過10年的審議,關於使用這些武器系統的國際法律和法規尚不存在。

儘管如此,此類技術會繼續發展,而且正在進行。

3. 人類失業

大型語言模型的開發將有助於提高員工的生產力,在某些情況下,可能會取代生成文本的人的工作。

其他專家也表達了對AI在就業市場取代人類勞動力的潛力的擔憂。但多倫多大學羅特曼管理學院勞資關係和人力資源管理名譽教授Anil Verma表示,隨著時間的推移,一些工作崗位將會消失,正如歷次技術浪潮中的情況一樣。但這種情況發生的速度是我們能夠調整和適應的。

而辛頓表示,他不確定科技是否會創造比它消除的工作崗位更多的就業機會。

4. 消除不同的聲音

在數據的環境中,用戶會接觸到與自己相似的信念或想法。結果,這些觀點得到了強化,而其它觀點則沒有得到考慮。

辛頓說,可能有一些程序使用AI算法,經過人類情感訓練,讓用戶接觸某種類型的內容。他舉了一個例子,大公司向用戶提供的內容鼓勵他們點擊。

5. 對人類的生存構成風險

辛頓還對AI可能對人類生存構成的威脅表示擔憂。他說,如果科技變得比人類聰明得多,並且能夠操縱人類,它可能會取代人類,人類有一種強烈的、內在的控制慾,而這也是AI能夠發展的特質。

人類可能無法克服這種控制慾望,也無法監管可能懷有惡意的AI。 這可能會導致人類的滅絕或消失。 雖然有些人可能認為這是一個笑話或危言聳聽的例子,但辛頓不同意。

「這不僅僅是科幻小說。」他說,「這是我們需要考慮的真正風險,我們需要提前弄清楚如何應對。」

6. 假新聞

辛頓表示,AI還具有傳播假新聞的能力。 因此,他說,標記虛假資訊以防止錯誤信息非常重要。

各國政府已將故意使用或保留假幣定為刑事犯罪,應該對AI生成的故意誤導的內容採取類似的措施。 不過,辛頓表示他不確定這種方法是否可行。

如何讓AI行善?

辛頓表示,他不知道如何讓AI更有可能成為一種行善的力量,而不是作惡的力量。但在這項技術變得異常智能之前,他敦促開發人員努力了解AI可能會如何出錯或試圖控制人類。

他表示,開發AI技術的公司還應該投入更多資源來阻止AI接管,而不僅僅是讓技術變得更好。

「我們真的應該減輕AI帶來的所有不良副作用。」他說。#

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column

------------------

🏵️《九評》20周年👉🏻 https://hk.epochtimes.com/category/專題/退黨大潮

💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand