AI 公司有了底線,在美國變成了問題,在英國卻成了資產。
4 月 7 日,《Artificial Intelligence News》報導了 Anthropic 與英國政府接洽擴張的計畫。這個故事的核心不是外交談判,而是一個公司在堅持原則之後被母國懲罰、卻被另一個 G7 國家主動拉攏的荒謬劇。
五角大廈的最後通牒
事情得從 2 月底說起。美國國防部長 Pete Hegseth 給了 Anthropic CEO Dario Amodei 一個明確的 ultimatum(最後通牒):移除 Claude 阻止全自主武器和大規模國內監控的安全防護,否則後果自負。
Amodei 沒退。他公開寫道,Anthropic 無法「憑著良心」答應五角大廈的要求,因為某些 AI 用途「會損害而非捍衛民主價值」。
華盛頓的反應又快又狠。
川普下令所有聯邦機構立即停止使用 Anthropic 的技術,國防部將 Anthropic 列為供應鏈風險——這個標籤通常只留給華為這樣的外國敵對實體。價值 2 億美元的國防合約被撤回,防務科技公司被告知員工停用 Claude、轉向替代品。
英國看到的不一樣
倫敦看著這一切發生,然後做了完全相反的選擇。
根據多個知情人士透露,英國科學、創新與科技部(DSIT)已經為 Anthropic 準備了一系列提案,包括在倫敦證券交易所雙重上市、以及在倫敦設立擴展辦公室。首相 Keir Starmer 的辦公室已經背書這項計畫,預計在 5 月下旬 Amodei 到訪時正式提出。
Anthropic 在英國已經有約 200 名員工,去年還任命了前英國首相 Rishi Sunak 擔任高級顧問。基礎設施已經到位,英國政府現在給的是一個明確訊號:Anthropic 把倫理限制寫進產品的方法,不是障礙,而是優勢。
倫理變成了競爭優勢
這場爭議表面上是法律和政治對抗,但對全球 AI 治理的影響更深。
Anthropic 的律師在法庭文件中論述,Claude 並非設計用於無人類監督的致命自主武器,也非用於監控美國公民。美國聯邦法官 Rita Lin 在 3 月核發初步禁令阻擋黑名單時,直言政府的作為令人「不安」,並認為可能違法。
這就構成了英國立場的法律基礎。英國把自己定位在華盛頓和布魯塞爾之間——不像美國要求不受限的軍事使用權,也不像歐盟 AI 法案那樣充滿各種限制。對 Anthropic 來說,這剛好是個不用放棄防護也能繼續擴展的環境。
倫敦的 AI 競賽
英國對 Anthropic 的追求不是孤立事件。OpenAI 已經承諾讓倫敦成為美國之外最大的研究中心;Google 從 2014 年收購 DeepMind 以來就扎根 King’s Cross。前線 AI 的倫敦爭奪戰已經很激烈,而 Anthropic 因為當下的處境成為了最有分量的目標。
同時,Anthropic 也在不受國內法律戰影響的情況下持續國際化擴張,包括最近開設的悉尼辦公室(亚太地區第四個據點)。
這意味著什麼
Anthropic 的故事告訴我們一件重要的事:在 AI 時代,堅持倫理底線不再是「對或錯」的哲學問題,而是「去哪裡發展」的商業決策。
一個因為有 AI 倫理政策而上了黑名單的公司,現在被另一個 G7 政府積極爭取。這就是 2026 年全球 AI 競賽的真實面貌:誰願意為自己的技術設限,誰就願意幫它設限。
5 月下旬那場會議,會很有看頭。
