Claude 竟成美國國防部「不可移除」的 AI 核心?
Anthropic 的意外勝局
當五角大廈試圖移除 Claude,卻發現根本動不了。這是一則關於技術、權力與依賴的現代寓言。
前言:那個「拆不掉」的時刻
有一種依賴,是在不知不覺中形成的。你以為自己只是暫時借助某樣東西,直到有一天想放手,才猛然發現——它已長入了你的骨髓。
美國五角大廈這次的遭遇,正是這種依賴最戲劇化的現代版本。國防部長 Pete Hegseth 試圖移除 Anthropic 的 Claude,卻被告知:做不到。因為太多關鍵的軍事作戰支援系統,已將 Claude 深深編織進自己的運作邏輯之中。拔掉它,等同於拆除了整座建築的樑柱。
這個消息在 AI 圈引發震動,但它所揭示的,遠不只是一場商業上的「意外勝利」。它是一面鏡子,映照出技術滲透的速度、人類對 AI 的信任遷移,以及一個更深的哲學問題:當一項工具成為基礎設施,我們還算是它的主人嗎?
一、「供應鏈風險」背後的真相:AI 依賴已無法逆轉
Hegseth 用「供應鏈風險」的標籤試圖移除 Claude,這個詞本身就耐人尋味。它暗示 Anthropic 是一個外部威脅——一顆可以被替換的零件。但現實是:Claude 已不再是零件,它是整台機器的神經系統。
這種「鎖定效應」(Lock-in Effect)在科技史上並不陸生。上世紀互聯網爆炸性成長時,企業大規模採用 TCP/IP 協議,從未想過「萬一有一天我們要換協議怎麼辦」——因為沒有人料到它會如此根深蒂固。石油之於工業文明,電力之於城市生活,也都經歷過類似的過程:起初是選擇,後來是習慣,最終是無可迴避的依賴。
技術的最高境界,不是讓人覺得好用,而是讓人覺得「沒有它不行」。Claude 在軍事系統中做到了這一點,不是靠強制推銷,而是靠深度整合後自然形成的不可或缺性。
從純商業邏輯看,這是 Anthropic 的巨大勝利:當你的客戶的上級想要「解雇」你,下屬卻說「不行」,這代表你已創造了真正的護城河。不是合約上的,而是結構性的。
二、依賴的哲學:主動選擇 vs. 無聲滑落
古希臘斯多葛學派的哲學家愛比克泰德(Epictetus)曾說:「人不是被事物所困擾,而是被他們對事物的看法所困擾。」換到今天的語境——人類並非被 AI 所控制,而是被自己對 AI 的依賴方式所定義。
這個案例的弔詭之處在於:沒有任何一個人坐下來做了一個「決定讓 Claude 成為不可移除的部分」的決策。這種深度整合,是無數個微小選擇累積的結果,是每一次「這樣比較方便」、「這樣比較快」所堆砌而成的現實。
哲學家波愛修斯(Boethius)在獄中寫下《哲學的慰藉》,談及命運的輪轉:你得到的,也將是你失去的。對 Anthropic 而言,這次的「不可移除」是財富;但財富的另一面,是期望與責任的倍增。當你的代碼影響到轟炸目標的鎖定,你的「安全 AI」使命宣言就不再只是品牌文案,而是沉甸甸的道德承諾。
創造一樣東西容易,與它共存、對它負責,卻是另一回事。Anthropic 的模型如今住在比任何矽谷辦公室都要龐然的系統之中,那個重量,是任何 IPO 估值都沒辦法量化的。
三、AI 深入政府的雙面刃:能力與問責並存
這起事件讓外界第一次清晰看見:商業 AI 已悄悄成為國家安全基礎設施的一部分。Palantir 選擇以 Claude 為核心,顯示了企業 AI 在精密度、可靠性與整合彈性上的競爭優勢。
然而,這也引發了一系列嚴肅的問題,而這些問題不只屬於技術圈,它們屬於每一個生活在被 AI 系統管理的世界的公民:
- 當商業公司的 AI 模型成為軍事決策的核心,誰來做倫理審查?一個追求安全 AI 的公司,如何在「推動負責任的 AI」與「成為武器支援系統」之間自洽?
- 民主社會設計的監督機制——國會、司法、媒體——是否有能力理解、追蹤一個已深度嵌入軍事邏輯的 AI 系統的行為?
- 「移除不了」的系統,是穩定的基石,還是無法問責的黑洞?
佛教哲學中有「業力」(Karma)的概念:你的行動,無論出於善意還是惡意,都會在世界中留下無法消除的痕跡。Anthropic 的每一次模型訓練、每一次策略決策,都是一種業——是一種在更廣大的系統中流動的因果。
AI 公司常常把「技術中立」當成擋箭牌:我們只提供工具,怎麼使用是客戶的責任。但一旦你的工具成為「不可移除的基礎設施」,這個說法就失去了說服力。深度嵌入帶來的不只是商業護城河,也是無可推卸的道德共責。
四、對企業 AI 策略的啟示:深度整合才是護城河
從純商業視角看,Claude 此次的「不可移除性」提供了一個極具價值的策略案例。對任何希望建立長期競爭優勢的 AI 產品,深度整合遠比功能堆疊更重要。
幾個值得企業 AI 負責人深思的洞見:
- API 整合不等於真正嵌入。真正的護城河,在於讓你的 AI 成為客戶工作流程中不可或缺的環節。讓人「用不慣別的」,比讓人「覺得好用」更難,也更持久。
- 政府與大型機構市場的切換成本極高。一旦系統穩定運行,維護現狀的惰性是強大的盟友。早期深度部署,等同於在制度的慣性中埋下了你的根。
- 「不可移除性」是雙刃劍。它帶來商業優勢,同時也帶來更高的倫理責任與社會審視。越深的整合,意味著越大的責任半徑——無論你願不願意承認。
東方哲學常以「水」喻道:水無形無色,卻能穿石,能填滿任何容器,也能在不知不覺中改變地形。Claude 在軍事系統中的滲透,恰像水入岩縫——不是強攻,是漫浸。而水一旦結冰,就再也無法忽視它存在的重量。
結語:工具的反噬,與我們的選擇
Claude 成為美國軍事系統「不可移除」的核心,是一個關於 AI 影響力、商業戰略與社會責任的複雜故事。它既是 Anthropic 的勝利,也是一面鏡子,映照出 AI 技術快速普及背後,制度設計尚未跟上的現實。
每個時代都有它的「水」——那個無聲浸潤一切的力量。工業革命時代是煤炭,資訊時代是資料,而現在,是 AI。人類對這些力量的回應,往往在「覺察到依賴已無法逆轉」之後才開始。
但覺察本身已是一種進步。提出問題——「AI 深度嵌入關鍵基礎設施時,應當有怎樣的透明度與問責機制?」——不只是 AI 從業者的責任,也是每一個關心自己生活在什麼樣的世界的人,都值得認真思考的功課。
真正的智慧,不是讓自己不依賴任何東西,而是清醒地知道自己依賴著什麼,以及這份依賴帶來了什麼責任。
※ 本文資訊來源包含公開新聞報導及 AI 產業分析資料,部分細節涉及安全敏感領域,以公開可查證之資訊為準。