AI的開發和應用越來越廣泛,但人們也越來越擔心AI會搶走他們的工作,甚至AI可能掌控大規模殺傷性武器,給人類帶來無法挽回的損失。奧地利官員更是直言,人類正處於AI的「奧本海默時刻」。
美國軍備控制、威懾與穩定局(Bureau of Arms Control、Deterrence and Stability)首席副助卿保爾‧迪恩(Paul Dean)在5月初的一次線上簡報中宣布,美國、英國、法國都「明確承諾」對於核武器的部署和操控,只能是由人類來決定和掌控,拒絕AI掌控或決定核武的使用權。
他還說,「我們歡迎中國(中共)和俄羅斯作出相似的聲明。我認為這是一種極其重要的負責任的行為規範,並且聯合國安理會五個常任理事國都有此承諾,會非常受歡迎。」
日本的電腦工程師清原仁(Kiyohara jin)在5月7日對大紀元表示,「AI是基於數據分析的產物,它與人的判斷是有很大的區別。人擁有理智、情感和道德約束,但AI沒有這些,且數據可能會出錯。若讓它操控核彈,就跟中共、伊朗等極權國家掌握生化武器一樣可怕。」
AI已進入實戰階段
實際上,AI在軍事上的運用已經十方廣泛,例如擁有自主探測能力的坦克、自動搜尋和攻擊目標的無人機、會進行火焰或子彈攻擊的機械狗等搭載AI的武器,而它們實際上都已經進入實戰階段。人們擔心,這些搭載AI的武器會延伸到殺傷力更強的武器上。
美國加州愛德華茲空軍基地在5月5日的中午,測試了一架擁有橘白色外表的F-16戰鬥機,其名為「X-62A」、「VISTA」(可變飛行模擬器測試飛機)。
美國空軍部長弗蘭克肯德爾(Frank Kendall)專程來到這裏觀看和體驗AI操控的F-16 戰鬥機。該戰機由AI進行操控,而裏面坐著肯德爾,與另一台由真人操控的F-16戰鬥機進行了一個多小時的纏鬥演練,兩者彼此相距不到1,000 呎(約300公尺),不斷扭轉和盤旋,試圖迫使對手陷入無力還擊的境地。
演練完畢後,肯德爾表示,相信這個仍在學習的AI,有能力決定是否在戰爭中發射武器。
VISTA的軍事營運商還表示,世界上還沒有其它國家擁有這樣的AI戰機,這種AI首先在模擬器中學習數百萬個數據,並在實際飛行中測試其學習到的數據。
不過,一些軍備控制專家反對AI過度操控武器,因為他們擔憂AI有一天可能在沒有人類控制的情況下,自動投擲炸彈或更強大的武器來殺人,因此他們尋求更嚴格的限制,希望能夠達到加強對AI的把關。
紅十字國際委員會也警告,目前人們普遍擔心將生死攸關的決定權,交給這些AI類型的自主武器,因此國際社會需要採取緊急方案去應對這種情況。
軍事評論人士夏洛山5月9日對大紀元表示,「AI控制核武是軍事AI化的其中一個問題,雖然目前還沒有發生,但依照人類目前開發AI 的勢頭,發生的概率就很高。因此美國和西方希望全球能在AI不控制核武的問題上達成共識。AI在軍事上的應用所帶來的危害也許是不可逆轉的。」
AI成為下一個奧本海默時刻
除了紅十字會和一些專家的警告外,上個月底在奧地利舉行的維也納自主武器系統會議上,有更多的專家呼籲各國共同討論對AI軍事化的控制問題。來自一百多個國家的文職、軍事和技術官員,共同討論了各自國家對AI軍事化的控制。奧地利外交部長亞歷山大沙倫伯格(Alexander Schallenberg)在會議上直言,「AI是我們這一代的奧本海默時刻。」(奧本海默時刻意指歷史的十字路口)
這句話指的是當年美國的理論物理學家奧本海默參與並成功研製出原子彈,這為美國和同盟國帶來勝利,因此被稱為「原子彈之父」。不過,奧本海默目睹原子彈給日本人帶來的災難,及對地球帶來的不可磨滅的傷痕,導致他思考自己幫助發展原子彈的決定是否正確。
沙倫伯格表示,「人類正走在歷史的十字路口,自主武器將布滿整個世界的戰場上。目前無人機、AI相關的機器正布滿整個戰場,而我們也面臨著法律、道德和安全上的問題。」
他說,現在全球急迫地需要在AI領域上作出一致認同的國際規則和規範,以防止AI因錯誤和極端的偏見出現失控的行為,導致人類滅絕和大量死亡。人們需要確保(武器)是由人類來掌控,而非AI。
清原仁對於沙倫伯格的話表示贊同。他說,「不過,遵守道德才是保證人類不會走向自我毀滅的唯一途徑,若道德跟不上武器或科技的發展,就容易使人們迷失,從而忽略安全意識。」◇
------------------
⏪️ 回顧2024專題報道👇🏻
https://hk.epochtimes.com/tag/回顧2024
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand