Download on the App Store

人工智能軍事化會唔會引發新一輪軍備競賽?

人工智能軍事化會唔會引發新一輪軍備競賽?

引言

近年,人工智能(AI)技術高速發展,已經由民間應用逐步滲入國防與軍事領域。無人機、自動瞄準系統、智能情報分析平台等技術日漸成熟,令「人工智能軍事化」不再係科幻小說情節,而係現實中各國積極部署嘅戰略方向。然而,當殺傷力同決策權逐漸交畀由算法驅動嘅系統時,一個嚴峻問題浮現:呢種技術躍進會唔會打破全球戰略平衡,進而引爆一場前所未有嘅新一輪軍備競賽?

呢個辯題唔單止涉及科技發展,更牽動國際安全、倫理底線同地緣政治博弈。歷史上,核武出現曾引發美蘇之間激烈軍備競逐;今日,AI 在軍事上嘅突破,特別係具備自主作戰能力嘅武器系統,有可能以更快、更隱蔽、更難監管嘅方式重塑戰爭形態。一旦主要大國争相研發與部署高自主性嘅 AI 武器,彼此陷入「你追我趕」嘅安全困境,新一輪全球性軍備競賽恐怕難以避免。

辯題關鍵概念界定

要深入討論呢個議題,首先要釐清幾個核心術語,避免雙方喺唔同定義下「雞同鴨講」。

人工智能軍事化
指將人工智能技術應用於軍事目的,包括但不限於:目標識別、作戰規劃、無人載具控制、網絡攻防、情報監察等。重點在於提升作戰效率、減少人員傷亡、加快決策速度。但當 AI 可以「自主」選擇攻擊目標甚至發動攻擊時,就進入極具爭議嘅「致命性自主武器系統」(Lethal Autonomous Weapon Systems, LAWS)領域。

軍備競賽
指兩個或以上國家為追求相對軍事優勢,持續增加武器研發投入、擴充軍備規模,形成一種「你升級、我跟進」嘅螺旋式對抗模式。特徵包括資源浪費、信任崩解、衝突風險上升。例如冷戰時期美蘇核武競爭就係典型例子。而今次潛在嘅軍備競賽,唔再局限於核彈數量,而係涵蓋 AI、量子計算、太空偵測等新一代顛覆性技術。

自主性程度
必須區分「自動化」同「自主性」。現時多數軍用 AI 屬於「人在迴路中」(human-in-the-loop),即最終決定仍由人類下達;但未來發展趨勢係「人在迴路外」(human-out-of-the-loop),即 AI 可獨立完成偵測、評估、攻擊全流程。呢種高自主性先至真正令人擔心失控風險同道德責任歸屬問題。

透過以上界定,我哋可以聚焦討論:AI 軍事化是否必然導致國家之間陷入非理性競爭?定係可以透過國際協議同倫理框架加以約束?呢先至係呢場辯論真正要探索嘅深層問題。


正方立論:人工智能軍事化必然引發新一輪軍備競賽

支持「人工智能軍事化會引發新一輪軍備競賽」呢個觀點,唔單止係基於歷史經驗,更源於對當代技術變革同國際政治邏輯嘅深刻理解。AI 嘅軍事應用唔只係武器升級,而係一場顛覆戰爭本質嘅範式轉移。一旦主要大國開始投入,就會觸發一系列難以逆轉嘅動態反應,最終導致全球陷入新形態嘅軍備螺旋。

技術優勢催生戰略恐慌

人工智能最嚇人嘅地方,唔係佢識做邊件事,而係佢做緊嗰件事時有多快、多隱蔽、多重複。一架由 AI 控制嘅無人艇,可以 24 小時巡邏、自動識別威脅、即時作出反擊,成本遠低於傳統艦艇。當一國成功部署呢類系統,其他國家就會產生強烈嘅「能力落差焦慮」。

例如美國海軍近年積極測試「幽靈艦」(Ghost Fleet)計劃,用 AI 駕駛無人艦執行高風險任務;中國亦相繼推出智能無人潛航器同蜂群無人機系統。呢啲發展表面睇似各自獨立,但實際上已經形成一種「你看我、我盯你」嘅技術對弈。任何一方取得突破,都會立即被視為改變力量平衡嘅信號,逼使對手加快研發步伐——呢種「技術領先—戰略威脅—加速追趕」嘅循環,正正就係軍備競賽最典型嘅起點。

安全困境下,理性選擇導致集體非理性

國際關係中有一個經典概念叫「安全困境」(security dilemma):就算一個國家純粹為自保而加強防禦,呢個行動本身都會被鄰國解讀為威脅,結果對方亦加強武裝,最終大家反而變得更加不安全。

AI 軍事化將呢種困境推向極致。假設 A 國開發 AI 系統用來防止網絡攻擊,出發點可能係防禦性;但 B 國睇到呢套系統具備快速入侵能力,就會擔心自己關鍵基礎設施受控,於是立即投資對抗性 AI 或先發制人武器。雙方都覺得自己好理性,但 collectively 卻走上一條越走越窄、越走越危險嘅路。

更麻煩係,AI 嘅學習速度遠超人類決策流程。當一台自主武器系統可以喺毫秒內完成目標評估同打擊指令,人類指揮官根本來唔切介入。一旦發生誤判或系統失控,衝突可能瞬間升級,令各國更加傾向「先下手為強」策略,進一步加劇緊張局勢。

軍工利益鏈推動不可逆擴張

除咗戰略考量,經濟同政治結構亦係推動軍備競賽嘅深層動力。AI 軍事化背後牽涉龐大產業生態:晶片製造商、軟體公司、無人系統承包商、數據分析企業……呢啲集團形成強大嘅「軍工-科技複合體」,不斷遊說政府增加研發預算、推動項目落地。

美國五角大樓「Project Maven」就係典型案例:Google 最初參與係為咗提升影像識別技術,即使後來因員工抗議退出,仍有大量私營企業前仆後繼接手。呢種「商業利益+國家安全」雙輪驅動模式,令 AI 軍事化唔再單純係軍隊內部事務,而成為跨部門、跨國界嘅系統性擴張工程。一旦資源投入形成慣性,就算領導人想踩剎車都好困難。

總括而言,人工智能軍事化之所以極有可能引發新一輪軍備競賽,唔係因為有人刻意想打仗,而係因為技術特性、國際信任缺失同結構性利益共同作用下,各國被迫走入「唔敢停、不能停」嘅競爭陷阱。歷史教過我哋,核武時代嘅軍備競賽靠「相互保證毀滅」同部分條約先至勉強穩定下來;但 AI 戰爭嘅速度同不確定性更高,若現喺唔及早建立規則,後果可能更加難以收拾。


反方立論:人工智能軍事化唔一定會引發新一輪軍備競賽

雖然 AI 軍事化確實帶來巨大挑戰,但話佢「必然」引爆新一輪全球性軍備競賽,其實係一種過度簡化甚至宿命論式嘅睇法。事實上,歷史經驗、現實制度同人類理性都有足夠空間去約束技術擴張,避免陷入無止境競爭。只要各國願意建立共識、設立紅線,AI 嘅軍事應用反而有可能成為促進戰略穩定嘅新契機。

國際規範與多邊協議具備約束力

科技發展從來唔代表命運失控。核武出現初期,同樣有人預言世界必將走向自我毀滅;但最終透過《不擴散核武器條約》(NPT)、美蘇裁武談判、國際原子能機構(IAEA)監察等機制,成功建立起一套相對穩健嘅管控框架。

同樣道理可以套用喺 AI 戰爭之上。聯合國《特定常規武器公約》(CCW)自 2014 年起已成立「致命性自主武器系統」(LAWS)專家小組,持續討論如何界定、限制同監管 AI 武器。雖然目前仍未有具法律效力嘅全面禁令,但越來越多國家支持設立「人類最終控制原則」,即任何致命打擊決定必須由人類授權。

歐盟更進一步提出立法草案,建議禁止全自主攻擊系統,並要求所有軍用 AI 必須可追溯、可解釋、可中止。呢啲舉動顯示,國際社會並非被動接受技術現實,而是積極嘗試塑造規則。只要主要大國保持對話渠道暢通,完全有可能達成類似「AI 戰爭紅線協議」,防止競爭失控。

技術本身亦可作為制衡工具

反方觀點仲可以進一步指出:AI 嘅威脅性,本身就催生出強大嘅防禦性與監控性技術,形成自然制衡。

例如,當一方部署 AI 驅動嘅無人機群進行偵察或攻擊,另一方就可以發展對抗性 AI 來攔截、欺騙或癱瘓呢啲系統。呢種「智能對智能」嘅博弈,未必會導致軍費無限膨脹,反而可能促使雙方追求精準、高效、低成本嘅防禦策略,減少對大規模進攻武器嘅依賴。

好似網絡安全領域咁,黑客與防火牆同步進化,最終形成某種動態平衡。AI 軍事化如果走向透明化與可控化,甚至可以透過區塊鏈記錄決策流程、利用第三方 AI 實時審計異常行為,做到「未打先防」。換句話講,AI 不單係破壞穩定嘅火種,同時都可以係維持嚇阻平衡嘅新支柱。

戰略理性抑制非必要競爭

最後,必須承認大多數國家領導人並唔想打仗,尤其係面對高不確定性嘅 AI 戰爭。一旦衝突爆發,自主系統之間快速反應可能引致「算法誤判—自動反擊—連鎖升級」,後果極難掌控。呢種「失控風險」本身就會嚇退理性行為者,令他們更傾向克制同合作。

中國、俄羅斯同美國雖然都在研發軍用 AI,但同時亦多次表態支持「有意義人類控制」(meaningful human control)原則。呢唔單係外交辭令,而是反映出各國心底都清楚:完全放手畀機器打仗,係政治同道德上都難以承受嘅選擇。

再加上現代戰爭成本高昂,經濟代價沉重,冇幾個政權敢長期投入無形成果嘅軍備競賽。相反,將資源集中於關鍵技術突破(如量子通信、AI 加密)、建立信任措施(如聯合演習、數據交換),先至係更具成本效益嘅長遠策略。

總括而言,話 AI 軍事化「一定」引發軍備競賽,就好似話發明飛機就一定會導致空戰天天發生咁誇張。技術只係工具,真正決定走邊條路,始終係人。只要國際社會肯坐低傾、訂規矩、守底線,AI 戰爭完全可以避免走上核武時代嘅老路,甚至開創出一種更理性、更可控嘅新安全秩序。


核心爭議焦點剖析

當人工智能逐步掌握殺傷力同決策權,最基本亦最棘手嘅問題浮現:一旦出事,究竟應該由邊個負責?呢個唔單止係法律技術問題,更直接影響國家點樣看待AI武器風險,從而決定會唔會因「責任不清」而選擇「自己研發先至安全」。換句話講,責任制度嘅混亂,本身就可能成為新一輪軍備競賽嘅溫床。

誰該為 AI 行為負責?

想像一架由AI控制嘅無人戰鬥機,在邊境執行巡邏任務時突然鎖定一架民用飛機並發動攻擊,造成重大傷亡。調查發現,系統係根據錯誤圖像識別同異常威脅評估自動作出反應——咁責任應該歸邊個?

傳統做法係用「產品責任」框架處理,即視AI為一件工具,責任落在設計者(開發算法公司)、製造商(生產硬件軍工企業)或使用者(下達任務指令嘅軍方指揮官)。但問題來了:如果AI係透過深度學習不斷自我調整行為,而最後嘅決策過程連原廠工程師都解釋唔到(所謂「黑箱」),點樣證明設計缺陷?如果操作人員只係設定目標參數,冇直接下令開火,又可唔可以推卸責任?

呢度就出現法律斷層。正因現行制度難以有效歸責,部分學者主張引入「主體責任」模式——即使AI唔係人,都可以被視為某種「責任載體」。例如,可以為高自主性嘅自主武器系統註冊獨立身份,一旦發生事故,先由其名下資金(如強制保險基金)賠償受害者,再追溯背後實際責任方。呢種安排唔係為AI「開脫」,而係確保受害人有途徑獲得救濟,同時倒逼各國建立透明監管機制。

事實上,責任越模糊,國家就越傾向「全鏈條自主可控」——自己研發、自己部署、自己問責,唔理國際規則。結果就係:每個大國都覺得唯有掌握全套技術先至安心,變相推動全面軍備擴張。

法律人格是否等同於權利主體?

好多人聽到「賦予AI法律人格」即刻驚惶失措,以為要畀機械人投票、申領護照、仲要享有人格尊嚴。其實完全搞錯重點。法律上嘅「人格」本質上係一種制度工具,目的係界定誰可以享有權利、承擔義務,以及點樣進入法律程序。

舉個經典例子:公司都唔係真人,但法律上承認佢有「法人資格」,可以簽約、被起訴、罰款甚至破產。點解?因為咁樣先至可以清晰劃分責任,保障交易安全。同樣道理,賦予AI「有限法律人格」,唔一定意味畀佢自由意志或道德地位,而可能只係為咗解決問責問題。

例如,可以設計一種「電子人格」制度,專門針對致命性自主武器系統(LAWS):
- 佢哋可以「被追究責任」,例如扣除運營單位信用評級或強制停用;
- 可以要求每部高風險AI系統預存「賠償準備金」;
- 出現違規行為時,可透過算法審計追溯決策路徑,並對背後機構實施懲罰。

呢種「功能性人格」唔追求哲學意義上嘅承認,而純粹係一種治理技術。如果國際社會能夠接受呢類設計,就有機會建立跨國問責機制,減少因「唔知點算」而導致嘅信任危機,從而降低軍備競賽壓力。

國際實踐與立法趨勢

睇返現實世界,全球對AI法律地位嘅探索仍處於起步階段,但已有重要信號值得關注。

歐盟喺2017年曾提出《民事法規則建議書》,其中提及研究「電子人格」可能性,建議為高度自主AI系統建立特殊法律地位。雖然最終未有立法落地,但反映咗歐洲對AI治理前瞻性思考。歐洲更著重「人類監督」原則,主張所有致命決策必須保留「人在迴路中」,並推動制定《AI法案》對高風險系統實施嚴格認證。

美國方面,聯邦層面尚未有統一AI法律框架,但國防部已發布「AI倫理準則」,強調負責任、可解釋同可問責。部分州份如加州開始處理自動駕駛車輛事故責任歸屬問題,累積咗「產品責任+保險機制」混合模式經驗。不過,美國整體傾向市場主導、技術優先,對國際約束持保留態度。

亞洲地區差異更大。中國積極推進軍民融合戰略,AI軍事應用發展迅速,但相關法律主要集中在數據安全同算法管理,未明確處理自主武器問責問題。日本則較保守,強調AI必須服務人類福祉,反對完全無人化嘅殺傷系統。韓國同新加坡則聚焦智慧城市與商業應用,軍事領域透明度較低。

總括而言,現階段全球並無統一共識,各國按自身戰略利益演進制度。正因如此,容易產生「監管套利」——某啲國家可能刻意放寬標準,加快部署AI武器,迫使其他國跟進。呢種碎片化格局,非但未能抑制軍備競賽,反而可能助長競爭。

真正出路,或許唔係立即全球統一立法,而是先建立「最低限度紅線」,例如禁止完全無人監控嘅自主攻擊系統、設立國際AI武器登記制度、推動算法透明審查機制。唯有當責任有路可循、後果可以預測,國家先至唔會因恐懼失控而走上無限軍備擴張之路。


實例與制度設計啟示

要評估人工智能軍事化會唔會引爆新一輪軍備競賽,除咗睇大國博弈同技術突破,仲要深入思考一個根本問題:點樣為非人類行為者建立問責機制?

如果一套由 AI 驅動嘅防空系統誤判民航機為導彈,自動發動攔截導致空難,責任應該由邊個負?開發者?操作員?定係 AI 自身?呢類問題聽落似科幻,但其實喺民用領域已經發生過類似情境。透過分析現實案例同現行制度如何應對,我哋可以窺見未來軍事 AI 可能面對嘅治理困局,以及有冇可能設計出既能促進創新、又能控制風險嘅新規則。

自動駕駛與醫療 AI 的責任困境

Tesla 事故:當「人機協作」變成責任模糊地帶

2016 年美國佛羅里達州發生全球首宗與自動駕駛相關致死車禍:一架 Tesla Model S 在 Autopilot 模式下行駛,系統未能識別橫過公路嘅白色貨櫃車,亦無自動剎停,結果司機當場死亡。國家運輸安全委員會(NTSB)調查發現,司機當時睇緊 DVD,但同時指出 Tesla 嘅系統設計存在「過度信任誘因」——界面令人誤以為可以完全放手。

事件引發激烈辯論:責任應該歸咎於司機疏忽?Tesla 提供錯誤安全感?定係 AI 算法缺陷?

最終處理方式反映出現行法律框架嘅侷限:美國國家公路交通安全管理局(NHTSA)並未起訴 Tesla,而是要求其改善警告機制;民事索償則透過產品責任法解決,由車廠同保險公司協商賠償。換句話講,責任最終仍落在「人類組織」身上,AI 只係被視為產品一部分。

但問題來了:隨著 FSD(全自動駕駛)功能逐步推廣,Tesla 嘅 AI 越來越多參與導航、變線、應對突發狀況等高階決策。若將來發生事故時根本冇人可以即時干預,仲可以繼續用「產品責任」嚟解釋嗎?到時是否需要某種形式嘅「AI 主體」去承擔後果?

醫療 AI 誤診:救星定幫兇?

另一個更敏感領域係醫療 AI。例如 IBM Watson for Oncology 曾被寄予厚望,協助醫生制定癌症治療方案。但在多國臨床應用中,出現建議偏離標準治療指南、甚至提出危險處方嘅情況。

假設一位病人因為採納 AI 建議而接受不適宜化療,最終惡化身亡,點分責任?醫生有冇盡到審核義務?醫院點管理 AI 工具?開發商有冇足夠臨床驗證?

目前做法通常係追究「使用單位」或「製造商」,但實際上,AI 嘅決策過程往往係「黑箱」,難以證明係設計缺陷定係數據偏差所致。有學者提議,可以為高風險 AI 系統設立「獨立法律身份」,類似一種「電子人格」,名下設有賠償基金,一旦出事先由呢筆錢賠付受害者,再追溯背後責任方。

呢種「先行賠償、事後追責」模式,唔單止保障公眾利益,仲可以鼓勵企業主動投保同加強合規,形成良性循環。雖然暫時未有任何國家正式賦予 AI 法律人格,但歐盟《人工智能法案》已提出「高風險系統必須具備可問責架構」,暗示制度創新正在醞釀。

比較法視角:法人 vs. 動物 vs. AI

要理解 AI 應唔應該有某種形式嘅法律地位,不妨睇下歷史上有冇類似「非人類主體」被納入法律體系嘅先例。兩個最值得參考嘅例子,就係「公司法人」同「動物」。

公司法人的啟示:虛擬主體如何承擔責任?

公司本身唔係真人,但法律賦予佢「法人格」,可以簽約、借錢、被起訴、甚至犯法(如違反競爭法)。重點唔在認同公司有「意識」,而在於方便劃清責任界線

例如一間軍工企業生產嘅 AI 武器造成平民傷亡,政府唔會懲罰每一位工程師,而係起訴公司,罰款或吊銷牌照。公司作為「法律主體」,成為風險集中點同問責接口。

同樣道理,可以考慮為致命性自主武器系統(LAWS)創設一種「有限電子人格」——唔畀投票權、唔享自由,但可以持有資產(如保險基金)、被列入制裁名單、或成為索償對象。呢種設計唔係為咗「尊重 AI」,而係為咗逼使背後人類行為者建立清晰問責鏈

動物權益法的反思:保護對象定潛在威脅?

另一方面,動物雖有福利法保障,但從來唔被視為法律主體。你唔可以告一隻狗咬人,而係告佢主人疏於看管。動物被定位為「受保護客體」而非「責任主體」。

但如果將 AI 也放喺呢個位置,就會出現矛盾:動物唔識編程、唔會學習演化,但 AI 會。一個能夠自我優化、適應環境、甚至模仿欺騙行為嘅系統,點解要當佢做一隻狗咁看待?

更重要,軍用 AI 嘅本質唔係「被保護」,而係「具殺傷力」。將之比擬動物,只會弱化監管力度,令開發者更容易以「工具無罪」為藉口逃避責任。

所以,AI 既唔完全似公司(無股東結構),又唔似動物(非純被動),而係處於中間地帶——一種「半自主代理者」(semi-autonomous agent)。針對呢類新型態,法律可能需要創造第三類別:功能性人格(functional personhood),按用途設定權利與義務。

舉個例:
- 用於醫療診斷嘅 AI:可擁有「問責人格」,配備賠償基金;
- 用於金融交易嘅 AI:可列入「市場主體」,接受監管審查;
- 用於戰場攻擊嘅 AI:可設為「登記武器」,要求算法透明同操作追溯。

呢種「情境化賦格」比一刀切「有/冇人格」更加務實,亦避免陷入哲學爭論泥沼。


結語:在工具與主體之間尋找平衡

人工智能軍事化會唔會引發新一輪軍備競賽?呢個問題嘅答案,唔係簡單嘅「會」或者「唔會」,而係取決於我哋點樣選擇應對。

正方所憂慮嘅,係技術邏輯如何扭曲戰略理性——當AI令作戰速度去到人類反應極限,當自主武器可以毫秒內決定生死,國家就會陷入「唔部署就落後,一部署就失控」嘅死結。歷史教過我哋,核武時代嘅軍備競賽靠相互恐懼先至勉強停步,但AI戰爭可能連「恐懼」都來唔切反應。呢種螺旋式對抗,唔係出於惡意,而係源於恐懼、誤判同結構性壓力。

反方則提醒我哋:人類始終掌握最終話語權。國際協議曾經約束核武擴散,技術本身亦可成為防禦盾牌,而大多數領導人根本唔想打一場無法收科嘅AI戰爭。只要肯坐低傾、訂規矩、守紅線,就有機會避開最壞局面。

所以,真正關鍵唔係AI有幾先進,而係我哋有幾快建立匹配嘅治理智慧。

制度演進應當「階段性、情境化」

我哋唔使急住決定AI係咪「主體」,反而應該問:點樣設計制度,令責任有路可循、風險可控、權力不濫用?

可以考慮「階段性賦權」:初級自動化系統(如輔助駕駛)沿用傳統產品責任;中階系統(如自動防禦砲台)引入「電子人格」概念,設立專項賠償基金;至於完全自主攻擊武器,則應全球禁用,如同化武同地雷條約一樣劃出明確紅線。

同時要「情境化」處理——醫療AI、自駕車、軍用無人機,雖然都叫AI,但風險性質完全不同。一刀切管制會扼殺創新,放任自流又可能釀成災難。必須按用途、自主性程度、後果嚴重性分類管理,好似航空管制咁精細。

從「誰負責」到「點預防」:文明的選擇

最終,呢場辯論唔單止關於法律技術,更係一場文明考驗。公司可以有法人格,動物可以受福利法保護,點解AI唔可以有一套專屬嘅責任框架?重點唔係畀AI「權利」,而係透過制度設計,逼返人類承擔應有責任——開發者要確保透明、使用者要謹慎操作、政府要監管到位。

歷史顯示,每一次顛覆性技術出現,都會試探法治底線。核能可以發電,都可以毀城;互聯網促進自由,亦可散播仇恨。AI 軍事化同樣係一把雙刃劍。我哋唔能夠阻止技術前進,但可以選擇點樣馴服佢。

與其等事故發生先至補鑊,不如趁而家仲有時間,推動國際對話、建立算法審計機制、甚至成立「全球AI武控組織」。唯有將道德意識注入科技發展流程,先至有可能喺工具同主體之間,走出一條既保障安全、又不失人性嘅中道。

畢竟,真正定義文明高度嘅,唔係我哋有幾多先進武器,而係我哋點樣克制自己使用佢哋嘅衝動。