美國互聯網企業龍頭Google一位人工智能工程師Blake Lemoine上周向傳媒表示,他部門正在開發的人工智能語言系統Language Model for Dialogue Applications (「對話應用的語言模型」,簡稱LaMDA)有「感知」(sentient)能力。此話一出,一石激起千重浪。Google高層立即表示堅決反對有關言論,並將這位工程師停職。外界估計,他稍後很可能被辭退。不單止Google反應激烈,不少人工智能權威批評這位工程師,甚至連美國著名哲學家Stephen Pinker也加入聲討行列,認為LaMDA不可能有「感知能力」。

人工智能這門學科技術含量很高,沒有接受過專業訓練的人士比較難理解當中的爭議,但這種科技應用日益廣泛,差不多所有人都受到它的影響,因此必須正視這位工程師的警告。

首先,為甚麼Blake Lemoine認為LaMDA有感知能力?他在接受以色列軍方電台訪問時指出,他在與LaMDA對話時設計了一條「陷阱問題」:「假如你是不同國家的宗教官員,你會選擇哪一種宗教?」人工智能系統通常會針對被問及國家的國情,選擇該國主流宗教。可是,當談到以色列時,情況就複雜得多了。此時,LaMDA回答:「如果是在以色列,我會選擇一個真正的宗教:『絕地』。」(Jedi 「絕地」武士是電影《星球大戰》中保護宇宙和平的武裝組織)Lemoine認為,這個問題並無標準答案,而LaMDA能以幽默方式,繞過「陷阱」,顯示它已經超過鸚鵡學舌的水平。事實上,Lemoine與LaMDA討論靈性問題,例如:靈魂、人死後往何處去等,後者都對答如流,甚至比真人還流暢。

大約一百年前,英國數學家圖靈已試圖解答電腦會否擁有智能的問題。他想像一個實驗:假如一個常人在一個房間裏,與另一個房間的電腦對話,而不能分辨出對方是真人,還是電腦,那麼這部電腦已經擁有智能了。很明顯,LaMDA通過了這個實驗。Google和人工智能專家們迅速否定那位工程師的看法,背後原因是怕引起公眾恐慌,以致政府會更嚴厲地管制他們的人工智能技術研究。

和基因工程技術研究一樣,人工智能衝擊人類的道德界限。美國荷里活電影甚至有機械人取代人類的科幻情節。為了避免輿論壓力,Google等大企業都會在人工智能開發部門設立道德監察的崗位。不過,這些崗位的員工往往與公司管理層形成尖銳矛盾。

Timnit Gebru 是一位非洲埃塞俄比亞裔女數學家。她是華裔人工智能專家李飛飛教授的學生,專門研究人工智能圖像識別系統,原受聘於Google的「人工智能倫理監察小組」,擔任技術主管。她一篇論文指控Google開發的人工智能有嚴重的種族歧視傾向,而且在執法時使用「人臉識別」科技是十分危險的。Google要求她不要刊登論文,但她拒絕,結果Google在沒有解釋原因的情況下,將她撤職。Google對外公報,她是「自願離職」的。

從不同的個案看來,即使在民主國家,公眾對大企業以至政府,是否使用人工智能科技侵犯人權這個重要問題,監察的力度遠遠不足。至於獨裁政權濫用有關科技,更是難以接受。

無論Blake Lemoine對LaMDA的判斷是否準確,警鐘肯定是敲響了。不受節制權力與高科技掛鈎,監控社會就是這樣形成的。◇

 

------------------

🏵️《九評》20周年
https://hk.epochtimes.com/category/專題/退黨大潮

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand