我覺得,我們變得太過依賴電腦,並盲目相信電腦,以致看不見其中的危險。這些危險藏在我們看不見的地方,除非你喜歡把東西拆開。大多數人不知道我們使用的裝置如何運作。對他們來說,網絡是個抽像概念。這一點很危險。

最近人們發現:美國推出的5G手機服務可能對飛航安全造成威脅。5G手機和基地台的信號可能會干擾飛機上的雷達高度計。雷達高度計能讓機師在霧中看不見跑道的情況下,使飛機安全降落。為了飛航安全的緣故,高度的測量必須非常精準。

我心想:歐洲已經在用5G服務,也沒聽說造成安全疑慮,美國為甚麼要大驚小怪?兩地有甚麼不同?許多圖像再度在我的腦海閃過。我看見一架飛機從紐約起飛,前往巴黎。這架飛機同時在美國和歐洲兩地飛行。美國和歐洲使用一個5G服務頻譜共享機制,讓許多使用者可以同時使用相同的頻率。

我的腦海浮現一些我曾為動物福利寫的標準原則,像是北美肉品協會(North American Meat Institute)的《動物處理建議守則與稽查指南》(Recommended Animal Handling Guidelines and Audit Guide)。我的腦袋就是這樣把準則的概念進行聯想。或許歐洲和美國的無線電頻率使用管理標準有一些差異。

我查詢管理標準,發現有篇論文解釋了差異何在,作者是瑞典查爾摩斯科技大學(Chalmers University of Technology)的馬沙羅(Maria Massaro)。原來,無線電頻率分享標準的差異在美國導致更高的風險。

根據高度計的技術與我寫本文時5G系統的要求,飛機跑道和飛機進場路徑附近不可以有高功率5G基地台。一想到有可能拯救無數人命,就覺得這問題不會太難解決。

當人工智慧(AI)控制的系統被黑客入侵時,會怎麼樣?圖為人工智能概念圖。(Shutterstock)
當人工智慧(AI)控制的系統被黑客入侵時,會怎麼樣?圖為人工智能概念圖。(Shutterstock)

當我以圖像思考為主題演講時,最多人問的問題之一是,我會不會產生幻覺。幻覺是圖像思考的一種嗎?答案很簡單:不是。

圖像思考是真實存在的,它以現實為基礎。一頭獅子在飯店裏攻擊你是幻覺,夢境有幻覺得成份。我在腦海中看見的畫面是真實的。而我經常想像的一件事是,當人工智慧(AI)控制的系統被黑客入侵時,會怎麼樣?

2015年,Google推出「深度夢境」(DeepDream),這個電腦視覺程式可以運用AI演算,在偵測模式後生成或強化影像。正常使用這個程式的一個例子,是用它在網絡上搜尋狗的圖像。如果是以預期的方式使用,那麼這個程式與圖像思考的運作很相似。

不過,若用它來尋找不存在的東西,它會產生幻覺,類似思覺失調者產生幻覺。當這個程式一再被要求在沒有狗的圖像中尋找狗,它會開始看見狗的某個部份。樹上的蘋果可能會變成眼睛。然後,這個程式會生成令人毛骨悚然的影像,例如有很多隻眼睛的怪物、有很多隻眼睛的天空,或是有很多隻眼睛混入超市貨架上的雜貨裏。

賀恩(Alex Hern)在《衛報》(The Guardian)描述,AI生成的影像「從美妙變為恐怖」。

2015年是AI發展的轉捩點,首次有電腦在圍棋比賽打敗人類,畢竟圍棋比西洋棋更複雜。數理型空間圖像思考者通常善於下西洋棋和圍棋,因為棋類活動屬於抽像策略思考。施華(David Silver)等人在《自然》發表的文章提到,電腦運用「超越傳統圍棋知識範圍的非標準策略」。

人們研究AI並應用在各種領域,從電玩到分析衛星影像都有。甚至有AI程式是訓練用來寫劇本和論文。馬倫尼奇(Sofia Merenych)在Medium.com發表的文章提到,GPT-3這個程式用莎士比亞的風格寫了一個劇本,連語言學家都難以察覺它是偽作。

當GPT從網絡上吸收了大量的人類知識之後,就能針對不同主題寫出論文。要求GPT針對某個爭議性主題寫一篇文章,它做出的結論頗有冒犯意味。史崔克蘭(Eliza Strickland)在《國際電子電機工程師學會期刊》(IEEE Spectrum)寫道:「不論GPT犯了甚麼錯,都是跟人類學的。它產出冒犯文字的機率是百分之百。」

AI是開發用來進行模擬和分析,以及應用在產業、交通運輸、網絡安全和軍隊。它的安全保障機制是甚麼?你希望讓AI操控一個核反應爐嗎?萬一黑客插入一個反饋迴路,使AI操作員產生幻覺,覺察到(不存在的)爐心熔毀時的高壓和高溫,會怎麼樣?又或許它會製造真正的爐心熔毀。

將來有一天,一些電腦科學家會承認,他們無法完全掌握AI會如何運作。《機器裏的藝術家》(The Artist in the Machine)作者密勒(Arthur I. Miller)在一篇文章寫道:「關於Google的深度夢境,重點在於,機器生成的影像不是人類輸入的。」用來監測氣溫、水流、壓力和工業設備速度的系統,有沒有可能也發生這種情況?這個世界將變成數字模型的世界,而不是圖像的世界。

我想起高中時期看的《2001太空漫遊》。在這部1968年上映的科幻電影裏,有一個人工智慧電腦名叫「哈兒」(HAL),它與一群太空人展開尋找外星生物的任務。哈兒設定為不能在太空人抵達目的地之前透露任務目的。它也受指示不能說謊。當哈兒面臨這個兩難困境,殺人成了唯一合乎邏輯的解套方法。不過,哈兒有一個開關。當唯一生還的太空人大衛在哈兒殺死他之前把哈兒關閉,是本片的高潮。

這部電影的精彩之處在於,哈兒在每個方面都跟人很像。太空人把它當成朋友,跟它玩西洋棋。一直到最後,哈兒一直是他們當中的一分子,即使它的樣子是一隻紅色的眼睛。當大衛開始移除哈兒的AI模組,哈兒懇求他不要再繼續進行下去,但大衛為了要活下去,非這麼做不可。

我還記得,當哈兒死去時,我和大多數的觀眾一起流下了眼淚。那個時候,哈兒已經切斷了太空船的空氣供應,但大衛凌駕太空船的電腦系統,用手打開緊急出口,逃出了太空船。

五十年後的今天,這個比喻依然很真實。人類和機械人能共存嗎?誰將會控制氧氣供應?機械人上面會有關閉裝置嗎?有一件事至關重要:在重要的基礎設備上設置傳統的電動機械裝置,當黑客要求這個設備自我毀壞時,人類能夠把電腦程式關閉,防止災害發生。(網站專文)

<本文摘自《圖像思考:用對的方法,釋放大腦潛能》,天下文化提供>

(天下文化提供)
(天下文化提供)

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column