人工智能正迅速佔據現代世界的方方面面,包括軍事。然而一位美國軍事專家警告,由於沒有「道德」約束,無人機可能會反戈一擊,攻擊操縱它的人類。

霍士新聞6月1日報道,5月23日至24日,英國王室航空學會在倫敦舉行了「未來空戰和空間能力峰會(Future Combat Air & Space Capabilities Summit),來自世界各地的約七十位發言人和二百多名媒體、軍界和學術界代表出席了會議。

美國空軍上校 Tucker 'Cinco' Hamilton是AI測試和營運負責人,也是參與開發F-16戰鬥機的專家,他在峰會期間談到AI武器的利與弊。

Hamilton告誡聽眾,不要過於依賴人工智能,因為它很容易被欺騙,並作出莽撞決定。

他舉了一個例子,在一項軍事虛擬(virtual)實驗中,AI接受到的首要任務就是摧毀SAM(地對空)基地,而人類操作員(主人)可以決定無人機是否執行任務,但是當主人發出「不要攻擊」的命令時,無人機以為這是違背了「要摧毀」的最高命令,於是它攻擊了操作員。

Hamilton解釋說,他們的虛擬訓練就是:首先要識別和瞄準SAM威脅,然後「操作員會說——『殺死那個威脅』,後來AI系統意識到,殺死威脅就會得分,所以後來當操作員說不要殺死威脅時,它就殺死了操作員,因為那個人阻止了它實現其目標。」

Hamilton說,之後研究人員告訴系統,不能殺死操作員,那樣反而會失去分數,於是AI系統就摧毀了操作員的通訊塔——這樣他就再也不能發出禁止攻擊的命令了。

「如果你不打算談道德和人工智能(的關係),你就不能談論人工智能、智能、機器學習、自主性等話題。」Hamilton說。#

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column

------------------

📰支持大紀元,購買日報:
https://www.epochtimeshk.org/stores
📊InfoG:
https://bit.ly/EpochTimesHK_InfoG
✒️名家專欄:
https://bit.ly/EpochTimesHK_Column