AI的開發和應用越來越廣泛,但人們也越來越擔心AI會搶走他們的工作或生活,甚至被用於戰爭,掌控大規模殺傷性武器,給人類帶來無法挽回的損失。奧地利官員更是直言,人類正處於AI的「奧本海默時刻」。

美國軍備控制、威懾與穩定局(Bureau of Arms Control、Deterrence and Stability)首席副助卿的保爾·迪恩(Paul Dean)5月初的一次線上簡報中宣布,美國、英國、法國都「明確承諾」對於核武器的部署和操控,只能是由人類來決定和掌控,拒絕AI掌控或決定核武的使用權。

他還說,「我們歡迎中國(中共)和俄羅斯做出相似的聲明。我認為這是一種極其重要的負責任的行為規範,並且在聯合國安理會五個常任理事國的背景下會非常受歡迎。」

目前美國和中共官員在一月份恢復軍事溝通正常化和核武上的討論,而2023年的三藩市會議中也有消息指出,雙方口頭承諾禁止AI控制核武器、無人機和其它自主武器,不過雙方尚未正式進行軍備控制談判。

日本的電腦工程師清原仁(Kiyohara jin)在5月7日對大紀元表示,「AI是基於數據分析的產物,它與人的判斷是有很大的區別。人擁有理智、情感和道德約束,但AI沒有這些,且數據可能會出錯。若讓它操控核彈,就跟中共、伊朗等極權國家掌握生化武器一樣可怕。」

美國完成AI戰鬥機測試

實際上,AI在軍事上的運用已經十方廣泛,例如擁有自主探測能力的坦克、自動搜尋和攻擊目標的無人機、會進行火焰或子彈攻擊的機械狗等搭載AI的武器,而它們實際上都已經進入實用和戰爭階段。人們擔心,這些搭載AI的武器會延伸到殺傷力更強的武器上。

美國加州愛德華茲空軍基地在5月5日的中午,測試了一架擁有橘白色外表的F-16戰鬥機,其名為「X-62A」、「VISTA」(可變飛行模擬器測試飛機)。

美國空軍部長法蘭克·肯德爾(Frank Kendall)專程來到這裏觀看和體驗AI操控的F-16戰鬥機。該戰機由AI進行操控,而裏面坐著肯德爾,與另一台由真人操控的F-16戰鬥機進行一個多小時的纏鬥演練,兩者彼此相距不到1,000呎(約300米),不斷扭轉和盤旋,試圖迫使對手陷入脆弱的境地。

演練完畢後,肯德爾笑著爬出駕駛艙並發表公開聲明。他表示,對於AI在空戰中的作用充滿信心,因此「現在我們不擁有它(AI)就會帶來安全風險,就在這一點上我們就必須擁有它。」

他補充道,他在飛行過程中看到了足夠的東西,相信這個仍在學習的AI,有能力決定是否在戰爭中發射武器。實際上,F-16戰鬥機經過部份修改後,能變成一款可以搭載戰術核武器的戰機。

美國空軍目前十分積極投入AI對於戰機和戰術上的運用,因為他們在去年2月曾宣布,進行了長達17個小時的在人工干預情況下讓AI操控F-16戰鬥機進行起飛、著陸和戰鬥的演習。現在,他們希望在2028年擁有超過1,000架由AI操控的F-16的機隊。

VISTA的軍事營運商還稱,世界上還沒有其它國家擁有這樣的AI戰機,這種AI首先在模擬器中學習數百萬個數據,並在實際飛行中測試其學習到的數據。

目前美國主要的空軍力量為F-16和F-35,這次美國選用F-16進行AI測試可能是它在造價和維修成本上比F-35更加便宜,再加上不少先進國家也採用這兩種類型的戰機,作為他們空軍的主力,未來有利於推廣這種類型的AI戰鬥機。

另外,烏克蘭正在製造更高端且更小型化的AI無人機,只要無人機搭載他們新研發的AI系統後,無人機可以在沒有人員控制的情況下,實現遠端自主識別、搜尋和打擊目標,從而讓無人機更難被擊落和干擾,把成本降至最低。

不過,一些軍備控制專家和普通人皆反對AI過度操控武器,因為他們擔憂AI有一天可能在沒有人類控制的情況下,自動投擲炸彈或更強大的武器來殺人,因此他們尋求更嚴格的限制,希望能夠達到加強對AI的把關。

紅十字國際委員會則警告,目前人們普遍擔心將生死攸關的決定權,交給這些AI類型的自主武器,因此國際社會需要採取緊急方案去應對這種情況。

軍事評論人士夏洛山5月9日對大紀元表示,「AI控制核武是軍事AI化的其中一個問題,雖然目前還沒有發生,但依照人類目前開發AI的勢頭,發生的概率就很高。因此美國和西方希望全球能在AI不控制核武的問題上達成共識。AI在軍事上的應用所帶來的危害也許是不可逆轉的。」 

AI成為下一個奧本海默時刻

除了紅十字會和一些專家的警告外,上個月底在奧地利舉行的維也納自主武器系統會議上,有更多的專家呼籲各國共同討論對AI軍事化的控制問題。來自100多個國家的文職、軍事和技術官員,共同討論了各自國家對AI軍事化的控制。奧地利外交部長亞歷山大·沙倫伯格(Alexander Schallenberg)在會議上直言,「AI是我們這一代的奧本海默時刻。」(意指歷史的十字路口)

這句話指的是當年美國的理論物理學家奧本海默參與並成功研製出原子彈,這為美國和同盟國帶來勝利,因此被稱為「原子彈之父」。不過,奧本海默目睹原子彈給日本人帶來的災難,及對地球帶來的不可磨滅的傷痕,導致他思考自己幫助發展原子彈的決定是否正確。

沙倫伯格表示,「人類正走在歷史的十字路口,自主武器將布滿整個世界的戰場上。目前無人機、AI相關的機器正布滿整個戰場,而我們也面臨著法律、道德和安全上的問題。」

他說,現在全球急迫地需要在AI領域上做出一致認同的國際規則和規範,以防止AI因錯誤和極端的偏見出現失控的行為,導致人類滅絕和大量死亡。人們需要確保(武器)是由人類來掌控,而非AI。

該會議的組織者、奧地利最高裁軍官員亞歷山大·克門特(Alexander Kmentt)也表示,傳統的「軍備控制」條約早已不適用於AI等軟件,「現在我們談論的不是單一武器系統,而是軍民兩用技術的組合,因此經典的軍備控制方法早已行不通。」

另外,哥斯達黎加外交部長阿諾多·安德烈·蒂諾科(Arnoldo André Tinoco),也對恐怖份子和其它極權國家將AI用在戰爭武器表示擔憂。

他表示,自主武器變得容易取得,只要擁有3D列印機和基本程式設計知識的學生,就可以快速製造能夠造成廣泛傷亡的自主性武器,這大大消除了各國參加軍備競賽的限制,且將永遠改變目前的國際局勢。

清原仁對於沙倫伯格的話表示贊同。他說,「不過,遵守道德才是保證人類不會走向自我毀滅的唯一途徑,若道德跟不上武器或科技的發展,就容易使人們迷失,從而忽略安全意識。」@

------------------

⏪️ 回顧2024專題報道👇🏻
https://hk.epochtimes.com/tag/回顧2024

🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand