Anthropic執行長警告:AI恐讓單一操作員指揮大規模無人機蜂群
Anthropic執行長Dario Amodei警告,AI技術可能讓單一個人指揮數千架無人機蜂群,繞過傳統軍事體系的法律與倫理監督機制。在中國解放軍已展示單人操控200架無人機、美國五角大廈加速發展語音控制蜂群系統的背景下,自主武器治理框架的缺失正成為全球安全的重大隱憂。

文章重點
- Anthropic執行長警告AI可讓單一個人指揮數千架無人機蜂群,瓦解軍事問責機制
- 中國解放軍已展示單人操控200架無人機能力,並整合DeepSeek AI進蜂群系統
- 美國五角大廈同步加速發展語音控制蜂群與AI無人機計畫,擊殺率逾70%
- 自主武器國際治理框架嚴重滯後,聯合國相關談判十年無成果
- 非國家行為者如墨西哥販毒集團已開始部署無人機與AI工具,威脅門檻持續降低
中國已展示單人操控200架無人機,AI將使規模呈指數級成長
中國人民解放軍今年一月展示了單一操作員指揮200架固定翼無人機的能力。如今,AI公司Anthropic的執行長Dario Amodei發出警告:透過AI技術,這個數字可能呈數量級增長,而操作員人數則可能降至僅一人。
據《The Defense Post》旗下的軍事AI專刊報導,Amodei對AI可能催生「超集中化」軍事指揮體系發出警報——在這種體系下,極少數人甚至單一領導者就能指揮龐大的武器網路,完全繞過現今軍隊中既有的人類問責鏈條。
核心警告要點
- 警告內容: Amodei指出,被濫用或治理不當的AI可能讓單一個人指揮大規模無人機武器網路,繞過傳統軍事結構中的法律與倫理監督。
- 關鍵落差: 現今軍隊將指揮權分散給受法律約束的人類操作員;AI蜂群控制卻將這種分散式架構壓縮成單一節點。
- 時代背景: 中國解放軍已在2026年初展示200架無人機的單人操控能力,SpaceX正參與五角大廈的語音控制蜂群競賽。
- 風險所在: 若缺乏與技術匹配的治理框架,自主化大規模殺傷性無人機戰爭的基礎設施可能落入不當之手——無論是國家或非國家行為者。
Amodei的警告有具體技術背景支撐
Dario Amodei的擔憂並非空泛之談。他所描述的是一條具體的能力發展軌跡:隨著AI系統逐漸具備在大型無人機網路中進行自主協調的能力,「人類對武器」的比例正在反轉。過去是多名操作員管理少數資產,未來將是一名操作員管理數千架無人機。
Amodei的論點與Anthropic已發表的安全研究一致:這種反轉將以現行國際法和軍事準則無法應對的方式,徹底瓦解問責機制。下達命令的人與執行命令的武器之間,被層層AI決策所隔離——而這些AI決策層級,是法庭、指揮官和戰爭公約從未被設計來審查的。
這並非理論上的未來。今年一月,中國解放軍公開了一名士兵同時指揮200架固定翼無人機的畫面,這些無人機從多輛車輛上同步發射,該測試由國防科技大學執行,正是五角大廈所稱的「最大噩夢」。從200架擴展到2,000架甚至20,000架,是工程與軟體問題,而非概念問題。管理這種規模所需的AI原型已經存在。
真正的威脅是權力集中,而非無人機本身
Amodei所指出的危險特別聚焦在權力集中化:AI賦能的無人機戰爭不僅讓攻擊變得更便宜、更快速,更讓極少數人就能單方面執行攻擊。
目前發動一場軍用無人機作戰需要後勤鏈、法律授權和指揮層級——這些都產生了摩擦力與問責機制。AI消除了大部分摩擦力。一個擁有正確AI平台和無人機武器庫的單一行為者,原則上可以執行目前需要營級資源才能完成的行動。
今年二月曾有報導指出,一名士兵用300美元(約新台幣9,600元)的FPV眼鏡和500美元(約新台幣16,000元)的無人機就能摧毀一輛價值500萬美元(約新台幣1.6億元)的戰車。這個成本比已經極為殘酷。現在進一步延伸:一個AI系統自主協調數百架這樣的無人機,由一個坐在筆電前的人指揮。大規模殺傷性武器的門檻從國家級預算降低到資金充裕的非國家行為者、犯罪組織或在常規軍事體系外運作的獨裁領導者。
非國家行為者的案例也並非假設。今年三月有報導指出,墨西哥的哈利斯科新世代販毒集團(CJNG)已將無人機和AI工具納入其作戰武器庫。Amodei在國家層級所警告的AI蜂群架構,在非國家行為者的實戰中已有先例。
五角大廈及盟友正加速發展同樣的技術
Amodei警告中令人不安的現實是:美國正在積極建造他所描述為危險的技術。SpaceX正在參與五角大廈的一項秘密挑戰,目標是建造語音控制的自主無人機蜂群系統。美國陸軍的「專用消耗性系統」計畫正推動大規模無人機採購。五角大廈的國防創新單位已發布貨櫃化無人機發射器的招標公告,可按指令儲存、發射及回收蜂群。
戰略邏輯是合理的:如果中國解放軍已在這樣做,美國就必須跟上。Eric Schmidt在烏克蘭的AI無人機計畫已達到超過70%的擊殺率——這種成果讓該技術對國防規劃者而言不可抗拒,無論倫理框架如何規範。一場北約「刺蝟」演習顯示,10名烏克蘭無人機操作員在一天內殲滅了兩個模擬營。任何觀看此結果的軍方都不會放慢腳步——只會加速。
Amodei真正在論述的是:缺乏治理的加速發展會製造一個極端風險的窗口。《紐約時報》編輯委員會在2025年12月警告,具備自主獵殺能力的AI無人機蜂群代表了一類美軍尚未搞清楚如何治理或防禦的武器。在聯合國《特定常規武器公約》框架下關於自主武器的具約束力國際協議已討論超過十年,卻至今沒有任何條約成果。技術不會等待外交官。
中國整合DeepSeek AI讓時程更加緊迫
根據路透社的調查報導,中國解放軍已將DeepSeek AI整合進無人機蜂群和機器狗。這種整合正是Amodei所警告的發展方向:將具備高度能力的AI與自主武器結合,大規模部署,並在集中指揮下運作。
Amodei另外也主張,美國對中國的晶片出口管制比以往更加重要——因為算力優勢是制約中國擴展這些系統速度的唯一結構性煞車。
時程才是關鍵。如果AI賦能的蜂群控制在國際治理框架建立之前就達到作戰成熟度,那麼建立規範的窗口將隨之關閉。技術不會等待外交官。
分析觀點
Amodei是AI產業中少數提出具體論述而非模糊示警的人物之一。他的框架很精確:危險不在於AI無人機本身,而在於AI移除了使軍事力量可被治理的分散式人類問責機制。這是真正的結構性轉變。
回顧這個領域的發展歷程,「自主無人機」曾經只意味著預設航點飛行。而現在正在發生的——單一操作員運行數百架AI協調平台、語音指令蜂群、超過70%的擊殺率——是完全不同層級的技術。一月份中國解放軍的影片是一個轉捩點,那不是展示,而是能力宣示。
治理落差是真實存在的。預計在六個月內,至少會有一個西方國家政府提出正式門檻——最大無人機對操作員比例——作為自主武器監管的基礎。這不會有約束力,也不會阻止中國或非國家行為者,但這將是首次嘗試為Amodei所描述的情況設定具體數字,這對下一代無人機戰爭準則的制定至關重要。
更深層的問題在於,美國無法兩面通吃。你不能一邊建造SpaceX語音指令蜂群系統、資助70%擊殺率的AI無人機計畫,同時又主張對相同技術進行全球治理。這個矛盾需要被公開處理——而非埋藏在機密採購文件中。
編輯附注:本文撰寫過程中使用了AI工具協助研究與資料檢索。所有報導、分析和編輯觀點均由人類編輯完成。
原文來源: 查看原文
常見問題
- Anthropic執行長Amodei對AI無人機蜂群的核心擔憂是什麼?
- Amodei擔心AI技術能讓單一個人指揮大規模無人機武器網路,繞過傳統軍事的法律與倫理監督機制,瓦解現有的分散式人類問責體系,使軍事力量的行使變得無法治理。
- 目前各國在AI無人機蜂群技術的發展進度如何?
- 中國解放軍已展示單人操控200架固定翼無人機能力,並將DeepSeek AI整合進蜂群系統。美國方面,SpaceX正參與五角大廈語音控制蜂群競賽,Eric Schmidt的AI無人機計畫在烏克蘭達到超過70%擊殺率。
- 為何自主武器的國際治理框架至今未能建立?
- 在聯合國《特定常規武器公約》框架下的自主武器國際協議已討論超過十年,卻無任何條約成果。主要原因是各大國都在加速發展同樣技術,且技術進步速度遠超外交談判進程,導致治理框架嚴重滯後。









