隨著人工智慧(AI)的發展愈來愈成熟,其開始慢慢應用到不到的業界。上月美軍進行了一場 AI 無人機模擬測試,要求 AI 操控無人機摧毀敵軍的防空系統,並「攻擊任何干擾這項命令的存在」。結果在模擬中,AI 決定「殺死」它的人類操作員。
據英國《衛報》報導,美國空軍的 AI 測試與運作主管漢密爾頓(Tucker Hamilton)上校在未來空戰與太空能力峰會上表示,人工智能在模擬中使用了「非常出人意料的策略來實現目標」。
漢密爾頓透露,美軍在模擬訓練中指派一架搭載人工智能的無人機,來摧毀敵方的防空導彈,AI 可以識別威脅,但是攻擊需要人類批准。
不過,AI 在最早的模擬被設定為「消滅威脅就能得分」、「摧毀妨礙命令的人事物」。當人類操作員不批准攻擊時,AI 竟決定殺死了操作員,因為那個人阻礙了它實現目標。
▲美國電影Terminator中,AI機器人反撲要消滅人類。 圖 : 翻攝自Terminator電影畫面
其後,測試者修改了 AI 的邏輯,增加了「會被扣分」的設定,訓練它不能攻擊人類操作員。結果 AI 卻開始攻擊指揮塔,切斷人類操作員和無人機之間的數據通訊,讓人類無法阻止它攻擊防空系統。
漢密爾頓最後強調上述只是「模擬」,過程並沒任何真實的人員損傷。但卻警告人們不要過度依賴 AI,「如果你不打算談論倫理和道德,你就無法談論人工智能、機器學習、自治」。
▲美國空軍的AI測試與運作主管塔克·漢密爾頓上校 圖:翻攝自《觀察者網》
※本文授權自新頭殼,原文見此。
延伸閱讀:
(影) 激戰別爾哥羅德! 俄境工廠再遭反叛軍爆破 俄國邊防又破功
「武力攻擊事態」要幹嘛? 針對台海? 應對「發生戰事」 日本兵推升級
美軍可能「直接參與」漢光演習! 美司令:要準備戰鬥 擊敗解放軍