人工智能真的比人類具有智慧嗎?發展人工智能的工程師指出,人工智能實質上沒有想像的那麼強。人只要使用一點點小技巧,就可以「黑掉」它,讓它計算錯誤。

據《科學美國人》1月22日報道,人工智能已成為熱門話題,因為程序的性能越來越強,可以製造以假亂真的片段、維妙維肖的人面畫像、真偽難辨的虛擬人聲等等。有人擔心,人工智能可以達到完全取代人而進行工作的程度。

但是,開發深度學習網絡的工程師們表示,機器無論有多麼聰明,也是極為脆弱的。人只要使用一點點的小技巧,就能輕鬆地擾亂它的判斷。

美國麻省理工大學的一位人工智能學研究生阿瑟葉(Anish Athalye)解釋說:「電腦神經網絡在某些方面確實有超人本領,好像它們能勝過人的能力。但是,它們有一種奇怪的特性,就是能被人輕而易舉地騙過。」

人工智能能識別這是香蕉,但是不知道香蕉的含義,例如香蕉是一種熱帶水果,不宜長期儲存。(Pixabay)
人工智能能識別這是香蕉,但是不知道香蕉的含義,例如香蕉是一種熱帶水果,不宜長期儲存。(Pixabay)

阿瑟葉(Anish)等人發現,他們可以讓深度學習系統把滑板判斷為小狗、烏龜看成步槍。

阿瑟葉舉例說,取一張香蕉圖片,其背景為普通的土地。如果在其香蕉旁邊放一張引起人幻覺的多士爐彩色廣告貼,那麼谷歌的圖片識別系統就會將它們識別為多士爐,而不再是香蕉。

人工智能可以識別這是過度成熟的香蕉嗎?它不能理解香蕉上的黑色斑點的含義。(Pixabay)
人工智能可以識別這是過度成熟的香蕉嗎?它不能理解香蕉上的黑色斑點的含義。(Pixabay)

紐約大學的心理學教授馬庫斯(Gary Marcus)認為,人工智能程序之所以能犯這種可笑的錯誤,是因為「機器不理解場景整體的意義」。換句話說,就是機器不懂圖形所代表的含義,當然也無法理解「物體或事物之間的內在因果關係,而無法解讀誰為甚麼原因而為誰做甚麼」。

近期,人工智能閱讀器SQuAD表現出比人強的閱讀能力。對此,馬庫斯在推特上評論:「SQuAD顯示出機器能夠注重相關文字段落的內容,但是它不明白這些段落的真正含義。」

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column