2024年4月1日在加薩發生了一件震驚世界(特別是西方世界)的大事, 那就是以色列的無人機炸死了七位世界中央廚房 (World Central Kitchen,下簡稱WCK) 的志願者。7位喪命的人中有6位來自美國,加拿大,英國,澳大利亞,波蘭,1位是巴勒斯坦人。WCK的3輛汽車是在運完約100噸的糧食後, 在晚上10:30到11點間遭到以軍用無人機在5 分鐘內發射了3枚導彈,精準的命中了這3部車輛,7人當場死亡。
這個事件之所以如此震驚是因為WCK在事發之前已告知了以軍他們當天的行車路線。車頂及車身上都有WCK的明顯的標誌。他們的行車路線也不在巴以交火的地區。他們只是將食物送到已陷入饑荒的加薩百姓的手中。
以色列政府稱這是誤殺。但因殺死了眾多來自歐美的志願者,引發了世界尤其是西方國家的譴責,以色列政府頭一次公開道歉並立即懲處有關人員。
但這是誤殺嗎?從以軍發射的精準度,可以判斷出這次的軍事行動必定和人工智能的操作有關。那位巴勒斯坦志願者很可能被以軍情報人員認定為哈瑪斯的成員。在以色列政府誓言要將哈瑪斯趕盡殺絕的政策指導下,即使對一個國際皆知的人道救援組織的救援行動,也不會手下留情。
人工智能武器化
這近7 個月的巴以衝突中,以色列利用種種高科技的優勢,事無忌憚的殺戮了3 萬多的巴勒斯坦百姓。以色列的高科技就是充分利用人工智能發展他們的武器。今年4月,一份長達8000頁的調查報告發表在一個以色列境內的雜誌 +972 and Local。 這報告透露,以軍長期來用一個名 Lavender 人工智能的程式將所有他們認為和哈瑪斯有關係的巴勒斯坦人的資料,匯集成一個殺人名單 (Lavender’s kill lists)。以軍就用這份名單進行他們的屠殺。對以軍來說,這是個非常有效率的殺人方式。
為什麼是有效率呢?因為用人工智能可以不經人腦的考量就以迅雷不及掩耳的速度將砲彈打出。以Lavender 為例,士兵們在攻擊前不需要檢測名單是否正確,只要名單上的人是男性,20秒內士兵就會得到許可,將其炸死。用的炸彈常是不精準炸彈 (dumb bomb)。 這類炸彈比精準炸彈(smart precision bomb) 便宜但會造成大量平民傷亡。對以軍來說,這是一筆划算的生意。以色列是不把加薩人民當人的。以國防部長曾在公開場合稱巴勒斯坦人及哈瑪斯是“類似人的動物” (human animals). 他們根本不在乎巴勒斯坦平民的喪亡,這次衝突更是變本加厲。以往他們還有一個自認是人道的法則 - 殺低官階敵軍時,不准許牽連無辜. 現在則是完全不用遵守了。以軍的新規定是殺死一個低官階哈瑪斯戰士,連帶殺死15到20的平民死亡是可以接受的。若殺 了高階層的哈瑪斯軍官,死一百多平民,士兵都不會受到處罰的。在以軍心目中,巴勒斯坦人的命不是命。
此外以軍用一個叫 “ Where’s Daddy?” 的軟件,鎖定他們要殺的目標人物的行動。當這些人一回到家,或全家在進餐時,就實施精準射擊,殺死全家。這也是為什麼死亡名單上常出現全家滅門的悲劇。
以軍在這次巴以衝突中展現了一個新的戰爭模式 ,那就是 - 人工智能展發展出的武器速度會遠超於傳統的武器, 無需太多人的監管,自動化機器將決定誰生誰死,平民的死喪將因此倍增。這將是一個非常可怕的戰爭模式。
高科技公司扮演的角色
用人工智能來發展武器給許多高科技公司帶來了極大的商機。高科技公司如Google, Amazon, Meta, Microsoft, Apple, Intel, Oracle, Nvidia, OpenAI 等 都在全力發展與軍工有關的人工智能產業。巴以衝突中,這些公司從以色列政府拿到巨額的合同。在其他的戰場像烏克蘭,亦復如此。2024年2月26日的時代雜誌就登了一篇”戰爭實驗室” 的文章,詳述了有些高科技公司如何與澤倫斯基政府合作,將烏克蘭戰地作為人工智能武器的實驗場。簡而言之,高科技公司已成為另種的軍工複和體。在目前一切以賺錢為最高目的西方社會體制下,將來會有什麼樣可怕的人工智能武器出現,實在很難預料。
政府的責任
從以軍用人工智能有效的摧毀巴勒斯坦社會,造成21世紀罕見的人道危機來看,有識之士已大聲呼籲,希望各國政府能迅速的成立有效的管制人工智能武器的機制。在他們看來,人工智能武器和核武一樣,若處理不當,人類會面臨被毀滅的危機。
人工智能安全中心 (Center for AI Safety) 在2023 年發表了一篇聲明,警告各國政府必須正視人工智能武器的管制。聲明中他們說到,沒有控制的人工智能武器,和疫情及核子武器一樣,對人類社會有毀滅性的傷害。這篇聲明得到了350位人工智能領域的知名人士如 人工智能教父 Hinton 及 Bengio, Google Deepmind CEO, OpenAI CEO等的簽名支持。
Hinton 認為未來的戰爭中,富有國家非常有可能用人工智能武器對貧窮小國發動戰爭。 這種戰爭將是非常殘酷的。他希望將來國際間能成立一個類似日內瓦公約的組織,討論出一個大家能遵守的行為準則。這種準則應該在有更大的悲劇發生前越快通過越好。
Hinton說出了很多人心中的憂慮,也提出了一個相當不錯的解決方向。但是在人工智能領域站領先地位的美國,高科技公司金錢力量對政府政策方向會有極大的影響力。政府中沒有足夠的人才了解高科技產業。以人工智能發展的速度,法規的制定必將落後在人工智能武器發展之後。這是令人憂心的。
史丹福大學以人為本人工智能中心 (Institute for Human-Centered Artificial Intelligence) 的華裔女教授,李飛飛,在她的自傳 ,The Worlds I See, 寫了一句發人深省的話。她說,發展人工智能最大的動力是為人類造福。這也是她個人投身於這個研究的最大動力。希望能在她及其他有類似理想的科研人士領導下,人工智能真正走向造福而不是毀滅人類的路上。