最新武器裝備的出現,使今天的戰場形態已經發生了巨大的變化,進攻的速度和規模都是前所未有的。如攻擊型無人機群可能會突然出現,連續的超過五倍音速的導彈攻擊,可能使人類決策者根本來不及做出足夠快的反應。軍事指揮官可能根本沒有機會進行決策分析並確定最佳的行動方案,而且武器操作人員可能在接到命令時已經來不及建立對高速同步攻擊目標的殺傷鏈,根本原因就是時間太短。
但是,這一切可以在人工智能的參與下得到緩解或解決,這就形成了一個人工智能在整個武器系統中扮演甚麼角色的問題。人工智能在軍事技術、武器和高速計算方面的迅速成熟和廣範應用,其快速、準確和無情的行動力,在不需要任何人類干預的情況下,似乎可以解決任何突然襲擊製造的時間壓力,達到有效防禦的目的。
很多人會想,我們爲甚麼不儘快製造一個像「終結者」似的武裝機器人,在沒有人類參與的情況下,能夠自主尋找、跟踪、瞄準和摧毀目標?其實,在某種程度上,這種技術已經有了。技術不是關鍵障礙,限制自主攻擊型機器人發展的因素除了技術之外,還有一系列複雜的概念、哲學和政策問題需要考慮。
遠程操作的武裝機器人已經存在,甚至很多年前就被派往戰場了,但是,所有這些武器系統都是由人類遠程控制的,任何機器都不能對使用致命武力獨自做出任何決定或判斷。至少美軍現有的任何武器系統都沒有跨越這個界限。五角大樓的理論是,當涉及到使用致命武力的決策時,必須始終由人操作。
一個完整的武器系統,比如一門火砲,包括探測和發現敵人目標的傳感器、識別和判斷目標、跟蹤和鎖定目標、選擇和裝填彈藥、激發並引導控制彈藥擊中目標。現在,這個過程已經從一門獨立的火砲延伸到一個龐大的作戰系統,它不僅從火砲本身的火控雷達獲得目標信息,它還可以從一個更大的戰場信息系統各種傳感器所形成的巨大的目標數據庫中獲得分配給這門火砲的目標數據,然後完成射擊。這就是一個完整的從傳感器到射手的時間軸。整個控制過程都可能由人工智能完成,但是在是否開炮的關鍵環節,還是由人來決定。
早在2009年,美國陸軍就在開發一種名為多功能後勤和設備車(MULE)的武裝機器人。該平台是一個10英尺見方的機器人,配備標槍反坦克導彈。在那個時候,機器人就可以使用自主導航系統跟踪、尋找、瞄準和摧毀敵人的坦克,而不需要人類干預來執行任務。
目前,美國陸軍正在開發很多改變模式的武器系統,包括激光、高超音速導彈、機器人和精確武器。
幾十年來,美國陸軍一直在為實現部隊跨領域的實時聯網而努力,這可以追溯到2000年代初陸軍廣泛研究的「未來作戰系統」。但真正將部隊實時聯網並通過組織信息將傳感器與射手迅速聯繫起來的能力從未完全實現,直到現在。
美國陸軍已經展示了使用人工智能的突破性方法,將傳感器到射手的時間從20分鐘大規模縮短到20秒,其中一些突破是在美國陸軍2020年開始的融合項目(Project Convergence)中得以實現。
融合項目一直在推動縮短從傳感器到射手的時間軸,以在敵人的決策周期內,先於對手做出關鍵的、有時間敏感的決定,從而在戰爭中獲勝。
使用高速、人工智能和傳感器的網狀網絡,將傳感器到射手的配對過程從20分鐘縮短到20秒,這確實是一個改變模式的突破,其關鍵是具有人工智能能力的計算機先進算法。
例如,一支小型分散的、具有遠距離傳感器和高速數據處理能力的多領域網絡化部隊,也許是一隻砲兵部隊,它所具備的高度殺傷力是前所未有的。他們可以利用一架微型無人機識別目標,並在幾秒內將目標數據傳送到一個由人工智能授權的數據庫,瞬間建立最佳的攻擊方案,在對手做出反應之前摧毀目標。
這就是美國陸軍正在極力推進的工作,這是一個被稱爲喚雨者(Rainmaker)的人工智能項目,這項技術旨在通過一個特定的架構來整合傳感器數據,以實現互操作性和數據共享。集成傳感器數據的喚雨者與一個名為火焰風暴(FIRESTORM)的人工智能輔助決策系統一起發揮作用,後者將傳感器數據與射手或武器系統配對,幫助指揮官在近乎即時狀態下做出決策。
這兩者的結合,幫助美國陸軍建造了一個從傳感器到武器系統任由人工智能馳騁的數據空間。在未來的戰場上,數據幾乎就是一切。它是部隊的眼睛、耳朵甚至大腦,它幫助部隊確定目標、做出決定,它能夠處理各種事情。而凌駕於這些數據之上的喚雨者則為陸軍與工業界創造了對話的語言環境,軍隊的任何想法、需求,戰術技術要求,都可以使工業界在這個基礎上,把它們以實物的形式呈現在戰場上。
到目前爲止,這些系統的決策權都在人類手中,技術的發展都沒有觸及將人類排除在武器系統運行環路之外的敏感問題。即使在一個有人的迴路中,人工智能也在空前地提升武器系統的反應速度,而美軍在這一領域還有巨大的發展空間。五角大樓不會在這個時候改變涉及倫理道德的原則問題,將人類排除在致命武器系統環路之外。但是美國的對手可能不會在這個問題上堅守道德原則,當二者的系統由於人類決策環節的有無而產生對峙能力的差異時,五角大樓可能會認真考慮這個問題,但那是以後的事了。
現在,即使是非致命性武器,五角大樓也沒有決定把它們完全交給人工智能。儘管人工智能的決策、分析和數據組織,正在以前所未有的速度成熟,人工智能的自主性仍然是一個非常前沿的問題。從本質上說,一個人工智能系統,在匯總和分析不同的傳感器數據時,是否能夠準確辨別致命和非致命武力之間的區別?人工智能攔截器是否可以用於防禦無人機和導彈,這種看似不是問題的問題,可能是很大的問題。
五角大樓聯合反無人機系統辦公室負責人佩里尼(Marc Pelini)說,現在我們沒有權力讓人類脫離這個圈子。根據現有的國防部政策,你必須在決策周期內的某個時間點有一個授權參與的人類。
儘管如此,五角大樓還是在防禦和非致命的領域開展了武器和人工智能自主循環的可能性探索,也就是說,是否允許人工智能支持的或自主的武器系統可以在非致命情況下開火或使用武力,這類問題在五角大樓探討範圍之內。原因是,先進的算法可以使人工智能的精確性和分析的保真度,讓人們相信,現在它們能夠處理、解釋和分析大量不同的數據,針對特定的威脅,判斷哪種反應可能是最佳或最適合的。它的意義在於如果美軍受到攻擊,保衛部隊或部署反措施的時間窗口可能成倍縮短,自主人工智能的應用可能在戰爭中挽救生命。
人工智能系統的前景和性能正在迅速提高,但仍有太多與人類認知相關的內容讓計算的屬性和品質,以及數字和邏輯為導向的機器無法準確捕捉。有一些人類認知所特有的主觀現象,機器似乎無法複製。比如情感、直覺、想像力,某些概念上的細微差別及語言中含糊不清的意思等等。
總之,我們要回答一個重要的問題,即如果終結者類型的機器人可以用於戰爭,那麼我們能這樣做嗎?當然,五角大樓是通過倫理和道德的視角看待這些技術問題,但肯定不能保證美國的對手,比如中共也會這樣做。因此,美軍可能需要準備與自主機器人作戰,這也是為甚麼在談到現代聯合軍事演習時,美軍特別強調範圍、網絡和無人系統的使用。
五角大樓已經接受了人工智能,但是沒有允許不管是致命的、非致命的、進攻或防禦的任何武器系統在人類決策之外自主進行攻擊。有些問題雖然在討論,但也沒有跨越倫理道德的界限。美國堅守的底線沒有因爲對手的沒有底線而崩塌。@
----------------------
【堅守真相與傳統】21周年贊助活動🎉:
https://www.epochtimeshk.org/21st-anniv
🔥專題:全球通脹加息📊
https://bit.ly/EpochTimesHK_GlobalInflation
🗞紀紙:
https://bit.ly/EpochTimesHK_EpochPaper
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column
------------------
🏵️《九評》20周年👉🏻 https://hk.epochtimes.com/category/專題/退黨大潮
💎成為會員 📧訂閱電子報
https://hk.epochtimes.com/subscribe
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand