芋傳媒 TaroNews - 台灣觀點.芋見真相

《李忠憲專欄》人工智慧在戰場的應用

圖片來源:pixabay
以色列軍隊大規模使用人工智慧對抗哈馬斯,憑藉其「Habsora」(福音)系統,以色列國防軍每天能夠產生數百個目標,同時相當準確地預測誰將受到攻擊,一場小小的科技革命,也擾亂了戰爭法律與道德。
發佈於 11 月 30 日,以色列-巴勒斯坦媒體經過長期調查,揭示了自 10 月7 日被攻擊以來,以色列國防軍在加薩走廊進行的大規模轟炸行動的情況。
根據退役士兵的大量證詞,新聞媒體確定,以色列軍隊使用人工智慧(AI ) 驅動的特殊軟體,透過匯總和交叉檢查各種情報來源的數據,每天產生大量潛在目標——幾乎每天 100 個以上,而大約有一半會真正被擊中。
此類軟體的存在可以解釋以色列為何能夠以如此持續的速度轟炸加薩走廊的原因,35 天大約 15,000 名巴勒斯坦人被殺,其中包括 6,000 名兒童。
儘管以色列軍隊已經採取了一項使其打擊更加精確的計劃,以色列軍隊提高了被謀殺平民數量的可接受門檻:用大約十名附帶受害者的條件,殺死一名哈馬斯成員,所說的「附帶損失」在行動中受到打擊時,即使他們不是直接目標。
從某種意義上說,我們常常有這樣的想法:附帶受害者是意外受害者,他們不應該被擊中,而也不一定會被擊中,事實上,情況並非如此。
借助人工智慧,以色列國防軍現在能夠更準確地預測特定人員實際上會受到攻擊。當以色列軍隊瞄準一棟十層建築殺死居住在那裡的哈馬斯成員時,它會提前知道那裡有多少人,因此可能會造成多少額外受害者。
有了這樣的技術,以色列獲得了以完全不同的方式發動戰爭的可能性,可以從遠處消滅敵人,而不必動員地面部隊,讓士兵參與戰鬥。事實上,人工智慧激化新武器中指出的趨勢,像無人機出現時一樣,我們不再與敵人作戰,我們像射兔子一樣消滅他們。
在遠端遙控的戰爭,沒有被敵人的鮮血濺到,如此一來,無疑道德的污點相對較少。
以色列殺死這些平民的原因是否不得已?儘管它有辦法知道自己確實會消滅這些平民。無論是否打算消滅他們,首先的目標是不讓哈馬斯成員逃脫,如果不做出犧牲數百人的決定,哈馬斯成員可能會逃脫。我們很難抵抗誘惑去做我們獲得執行任務的可能性和我們手中的權力。
當技術上可以做某事時,通常情況下,某件事最終會被完成。手段證明目的合理,這就是科技進步所維持的加速趨勢,特別是在戰爭時期,技術實力通常會發生新的轉變。
以色列軍隊已經在消滅哈馬斯成員的行動中,接受更多平民受害。這引起了關於在現代戰爭中使用 AI 的道德和哲學問題,例如是否可以接受預見到的平民傷亡,以及使用 AI 進行遠程遙控殺人是否在道德上可接受。
下個階段就是自主戰鬥人工智慧機器人的問題了。

圖片來源:Shutterstock

原文出自李忠憲臉書,芋傳媒經授權轉載。

邀請您加入「芋傳媒」的粉絲專頁
邀請您加入「芋生活」的粉絲專頁
我知道了

評論被關閉。