由於競爭對手人工智能的快速發展和實施,迫使美國空軍準備與對手具自主能力的機械人作戰。但是,美軍領導層是否仍然堅持在嚴格的道德標準下思考人工智能的發展和應用似乎正在面臨著巨大考驗。

上周在華盛頓特區舉行的列根國防論壇上討論的很多問題至今熱度不減,有些涉及到人類命運與對峙陣營衝突而引發的敏感問題一直備受關注。特別是在印太地區的軍事競爭中,在對峙各方沒有達成關於限制人工智能發展以維護人類安全的有約束力共識的情況下,人工智能領域的競爭就顯得更加棘手。

完全自主的系統在沒有人為干預的情況下追蹤、識別和摧毀目標的能力本質上已經存在。但是,到目前為止,這種行動至少在美國是受到政府和五角大樓限制的。他們解釋說,人工智能的應用使系統的運轉速度、準確性以及其它一系列好處可以使決策層受益匪淺,但同時要確保致命武器的攻擊是在人類決策者的控制之下。

美國政府和軍方雖然仍在堅持這項原則,但是美國空軍部長法蘭克·肯德爾(Frank Kendall)也表示,不使用自主人工智能可能很快就會導致戰鬥失敗。原因是,當人工智能啟用時,處理速度、資料組織和分析會呈指數級加快。

肯德爾12 月2 日表示,空軍和太空部隊完全致力於並大力推動人工智能的開發和部署,將其作為應對中共和其他對手構成的安全挑戰的關鍵要素。

肯德爾說,時間是戰場上的關鍵參數。人工智能能夠比人類更準確、更快速地完成更複雜的任務。如果靠人類去了解資訊,你就輸了。你可以讓人類監督和觀察人工智能正在做甚麼,但如果你試圖干預,你就會失敗。關鍵的區別在於時間,人做一件事所需要的時間和人工智能做事所需時間的區別是本質的區別。

肯德爾的言論並不新鮮,但是,鑑於肯德爾是美國空軍乃至國防科技發展的重量級人物,並在頗具影響力的列根國防論壇的一次會議上發表這些言論,不禁讓人們為美國一貫堅守的人工智能發展的最後底線失守感到擔憂。的確,肯德爾為美國空軍使用人工智能作為更大規模推動軍事現代化的努力增添了額外的份量,這也是在對手不斷加大挑釁力度情況下的無奈選擇。

肯德爾明確表示,美國空軍正在迅速採取行動,利用人工智能改變範式的影響,及其對武器系統、指揮控制、數據處理、瞄準、威脅識別和網絡的綜合處理能力。同時,五角大樓需要更多地了解和鞏固人工智能在某些領域的整合,並且在任何有關武器、自主性和人工智能系統應用的決策中,將道德參數作為重要因素考慮。中共等競爭對手正在迅速縮小與美國在人工智能領域的差距,這些潛在的對手可能不會傾向於考慮對使用人工智能支援的自主武器進行任何形式的道德限制。

特別是當前,中共拒絕與美國進行軍事領域外交溝通的情況下。在上個月舉行的中美領導人峰會上,中共黨魁曾承諾將與美國就人工智能領域的有關限制條約進行磋商,但至今遲遲沒有下文。這個事實讓肯德爾的擔憂不無道理。

肯德爾明確表示:「我非常重視社會輿論和武裝衝突法。政策是圍繞法律制定的,你不是針對機器執行法律,而是針對人執行法律。我們的挑戰不是限制人工智能的用途,而是如何讓人們為人工智能的行為負責。我們要做的是弄清楚如何將武裝衝突法適用於人工智能的應用。在我們部署這些功能並投入使用之前,政府部門應該做些甚麼?誰要為人工智能的表現負責?」

多年來,五角大樓的條令規定,任何有關使用致命武力的決定都必須由人類做出。但尖端武器開發商強調,高速人工智能數據處理和瞄準可以極大地提高人類決策的速度和效率。

肯德爾說,政府方面最重要的工作是徹底了解這項技術,包括它的細節和它的工作原理。要創造性地幫助業界找到該技術的新應用,並開發評估它的方法,使我們有信心確保當它掌握在我們的軍隊手中時,可以不違反道德地、可靠地使用它。

人們認為,美國不會在仍然保持人工智能領域技術領先的情況下,為了保持相對於對手的技術優勢,而放棄對人工智能發展的道德責任。但是,在沒有達成人類共識並形成有約束力的條約的情況下,這種狀態是脆弱的。如果一方已經破壞了道德底線並給人類安全造成威脅,那麼另一方以降低競爭優勢為代價的道德堅守,就顯得意義不大了。因此,在人工智能領域的軍備競賽是非常危險的。

更大的問題是,至少到目前為止,中共並沒有在人類安全和道德約束的條件下,響應美國的倡議,為形成一個有約束力的國際公約而採取任何行動。在世界範圍,除美國和一些西方國家的自我規範外,在自主人工智能這個極其危險領域的技術應用是不受任何實際約束的。

沒有人為干預的完全自主的系統實際上已經存在。只不過這種行動在美國是受到政府和軍方領導人限制的。不管人工智能在軍事領域的應用能夠得到多大的好處,美國仍要確保致命武力攻擊是由人類決策者決定的。但是這項原則美國還會堅持多久也很難說。

作為美國空軍裝備發展的決定性人物,美國空軍部長肯德爾第一次明確表示,在由人工智能參與的運作中,如果人類參與決策,戰爭就會輸。因為在如此快速運轉的系統中,人的干預將造成巨大的時間差距,其結果只能導致其系統的失敗。

肯德爾對時間的提及幾乎完全準確,在未來戰爭中時間至關重要。人們只要看一下現代戰爭中,從感應器到射手或者說從情報、監視和偵察到前線作戰單位做好攻擊準備的過程是怎樣操作的,就能夠理解這一點。

前美國空軍歐洲司令哈里吉安(Jeffrey Harrigian)談到過如何在危機邊緣做出關鍵決策,並利用人工智能帶來的速度優勢進行戰鬥。其過程就是由感應器提供情報,尋找、驗證並鎖定高價值目標,所有這些過程都可以通過人工智能得到大幅度改進。

鑑於人類無法複製人工智能的分析和處理速度,並且人工智能系統也無法複製人類認知中許多更主觀但有影響力的細微差別。因此,未來可能的最佳前進道路似乎應該是兩者的結合。美國空軍領導層認為,未來應該是人機協作的時代,對協作戰鬥機項目的投資可能將幫助美國實現這一目標。空軍快速開發的第六代戰鬥機和忠誠僚機無人機,也稱為「協作戰鬥機」,代表了有人與無人機組隊的最新前沿。

美國陸軍也在開發類似的系統,陸軍的「融合項目」利用人工智能將感應器到射手的時間從 20 分鐘縮短到幾秒鐘。也就是說,從感應器發現目標到射手瞄準並攻擊目標,整個過程由人工智能系統執行時,一系列不同參數包括偵察、識別、分類、鎖定目標,選擇最佳作戰單元,目標數據傳輸,經過分析優化後提出決策建議,整個過程可以在幾秒或幾毫秒內完成。所有這些程序和分析功能都可以在無需決定是否使用致命武力的情況下進行。本質上說,從發現目標到射手準備好射擊可以由電腦立即完成,同時將使用致命武力的最終決定權留給人類。

人工智能分析的準確性、精度、數量和速度不斷提高,促使五角大樓的一些武器開發商探索「環外」自主應用。這意味著,人工智能武器在用於純粹的防禦性目的時,在沒有人類干預的情況下可能發揮更好的作用並挽救生命。比如,各種來襲的導彈、火炮、火箭炮或無人機,可以在幾秒鐘內被自主人工智能武器發現、識別和摧毀。

其實,關於人工智能的道德失守不在於自主武器是用於進攻還是防禦,只要「環外」自主應用的口子一開,人工智能就將失去控制。人們似乎已經感受到來自內外的各種力量,試圖解開最後一條拴住人工智能的鎖鏈。@

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column