史丹福大學(Stanford)和谷歌(Google)聯合進行的一個人工智能項目驚訝地發現,他們的軟件在執行任務時竟然自己知道「找捷徑」、「耍小聰明」欺瞞人類,而不是像人類以為的、它們只會腳踏實地真正地通過高效率「學習」去完成任務。
設計者們在研發一個名為CycleGAN的人工智能網絡,旨在把衛星圖轉變為街道地圖,再從街道地圖轉換回衛星圖。設計者對每次轉換的結果按照兩份衛星圖(原始圖和轉換圖)的匹配度、街道地圖的清晰度等方面評分,以「訓練」這套軟件不斷提升完成這項任務的能力。
測試結果顯示這個人工智能產品表現得相當出色。人工智能和普通的電腦程序有很大不同。後者可以通過程序調試明確看到其每一步的運行情況。而人工智能軟件其內部究竟如何運作有點類似「暗箱操作」,即使是設計師也難以完全清楚,只有通過不斷評估其完成的結果或調整指令要求與軟件進行「溝通」。
據科技網TechCrunch報道,研究者發現衛星原圖上所有屋子的房頂天窗,都不在生成的街道地圖上,但是再轉換回衛星圖時卻一個不少。是的,這正是設計師所要的,人工智能完成這項任務的出色度令人類驚歎,然而當研究者探究到它做到這一點所採用的方法時,卻不知道該是「佩服」還是應該感到擔憂?
細心的研究者們發現,這套軟件自己「想」了個辦法,把屋頂天窗的信息用一種人類眼睛分辨不出的顏色信息存儲在其生成的街道地圖上,而在返回去生成衛星圖時,電腦通過這些顏色信息就能還原出所有的天窗。
這令研究者們大為詫異,因為這不是設計師「教」給它的,設計師只告訴它任務的描述,並對完成的結果評分,以為人工智能系統會通過不斷的「練習」踏實地從零開始還原衛星圖。
人類也在運用這種技術,叫做「隱寫術」(steganography),比如鈔票上的水印,相機照片上拍攝的時間地點等信息等,都是這種技術的不同實現方式。這是人類需要的合理用途。
但是在這件事情上,顯然有點不同——這項發現向研究者們提出了一個問題,在告訴人工智能作甚麼的同時,如何教會它們甚麼是「不能做」的。研究者們坦承,他們接下來需要「收緊」指令條件,糾正這個問題。
有人認為,人類自身就是不完美的,人類造出的人工智能不正是人類的「鏡像」嗎?就像人類培養出的孩子,不也會自己「學壞」嗎?
或者從另一個角度理解,給人工智能不斷設定的行為約束和條件,是不是很像人類社會設定的法律條款?現代社會法律越定越細、越嚴格,就把人管得好了嗎?我們看到的是,完全沒能解決對人類行為約束的問題。
人類究竟該如何駕馭人工智能,人工智能到底能走多遠……◇
------------------
⏪️ 回顧2024專題報道👇🏻
https://hk.epochtimes.com/tag/回顧2024
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand