
▲美軍傳在委內瑞拉行動使用Claude。(圖/Anthropic)
記者吳立言/綜合報導
一份報導指出,美國軍方在委內瑞拉的一次行動中,疑似使用由 Anthropic 開發的 AI 模型 Claude 協助任務執行。委內瑞拉國防部指稱,該行動涉及首都卡拉卡斯多處轟炸,造成 83 人死亡。由於事件牽涉「機密任務」與商用 AI 工具導入軍事流程,外界關注快速升溫。
根據《華爾街日報》報導,Claude 是透過 Anthropic 與 Palantir 的合作關係,進入美國軍方的作業鏈中使用。報導引述匿名人士說法,但未揭露 Claude 在行動中扮演的具體角色與範圍。
使用規範與合規疑問
Anthropic 的使用條款禁止將 Claude 用於暴力目的、武器開發或監控等用途,因此若相關傳聞屬實,是否違反企業政策成為爭點。Anthropic 發言人未正面證實Claude是否用於該行動,僅表示任何使用都必須符合政策要求;美國國防部也未就報導內容回應。Palantir 同樣未就指控作出評論。
軍事 AI 擴張與風險爭論
報導同時提到,多國軍方近年持續導入 AI,用於情報分析、目標排序與無人系統等應用,支持者主張可提升效率與反應速度。不過批評者警告,若決策過度依賴演算法,可能因資料偏差或模型誤判導致誤擊,責任歸屬與監督機制仍不明確。這也讓「商用A I 進入軍事鏈」的治理與透明度問題再度浮上檯面。
國防需求與企業立場拉鋸
報導指出,Anthropic 執行長曾呼籲加強 AI 監管,並對 AI 介入致命自主作戰與監控表達保留。另一方面,美國國防部官員近期也曾公開表示,不希望採用「限制過多、無法支援作戰」的模型,凸顯國防需求與企業安全政策之間的張力。隨著 AI 在國防領域的採用擴大,未來如何兼顧作戰需求、合規落地與外部監督,預料仍會持續引發爭議。
