美國軟體巨擘Palantir執行長亞歷克斯·卡普(Alex Karp)近日明確指出,美國國防部(DoD)的AI產品應用核心,主要鎖定於戰爭背景下的非美國公民境外作戰,而非境內監控。此一聲明在人工智慧(AI)倫理與軍事應用爭議不斷之際,顯得格外引人注目。此際,AI新創公司Anthropic因拒絕其模型用於大規模監控美國公民或驅動致命自主武器,與五角大廈陷入僵局,更對川普政府將其列為「國家安全供應鏈風險」提出訴訟,一場關於科技倫理與政府權力界線的深度辯論正全面展開。
美軍AI戰略明晰:Palantir強調境外應用
亞歷克斯·卡普的言論,為美國國防部在AI技術的運用方向描繪出清晰輪廓,即其AI解決方案主要服務於海外軍事行動。這與外界對於AI技術可能被濫用於境內監控的擔憂形成對比。儘管Palantir與Anthropic曾於2024年合作,透過Palantir向國防部提供Anthropic的AI技術,卡普仍強調,國防部對AI產品的運用方向,從未包含境內使用。
卡普進一步解釋:「我們仍在處理所有這些事務。是我們的技術棧在運行大型語言模型(LLMs)。」這段話揭示了Palantir在整合尖端AI技術於軍事應用中的關鍵角色,並暗示其技術平台在處理複雜的語言模型方面具備深厚實力,為國防部提供戰略決策支援。
Anthropic與五角大廈的倫理拉鋸戰
Anthropic公司去年曾與美國國防部深度合作,開發專為國防部設計的AI技術,其AI模型Claude自逾一年前起,便已成為美國政府採用的模型之一,據傳更是首個獲准用於機密資訊的尖端系統。今年一月,Anthropic的AI工具據報甚至被用於逮捕委內瑞拉總統尼可拉斯·馬杜羅(Nicolás Maduro),顯示其技術已實際投入敏感任務。
然而,Anthropic卻因堅持其AI模型不應用於大規模監控美國公民或驅動致命自主武器,與五角大廈產生嚴重分歧。該公司認為,當前的尖端AI模型尚不足以應用於全自主武器,且大規模監控美國公民違反基本權利,因此尋求五角大廈保證Claude不會用於上述目的。但五角大廈則堅稱,Claude應可用於「所有合法用途」,雙方對AI應用倫理的認知存在顯著落差。
- 拒絕大規模監控:Anthropic認為,監控美國公民侵犯基本權利。
- 避免致命自主武器:該公司判斷現有AI模型尚不成熟,不適合用於全自主武器。
- 尋求用途保證:Anthropic要求五角大廈承諾Claude不會用於上述爭議性目的。
「國家風險」爭議與法律攻防
這場倫理爭議迅速升級為政治與法律層面的對抗。川普政府於今年2月27日宣布,將Anthropic列為對國家安全構成供應鏈風險的公司。值得注意的是,這是美國政府首次將一家本土企業認定為「國家風險」,此舉無疑對Anthropic造成巨大衝擊。此後,Anthropic向政府為一份內部備忘錄的洩露事件致歉,該備忘錄批評OpenAI接受了五角大廈的合作協議,而Anthropic則拒絕了。
Anthropic表示,該備忘錄是在川普總統透過Truth Social平台宣布將Anthropic從所有聯邦系統中移除、戰爭部長透過X平台宣布供應鏈風險認定,以及五角大廈與OpenAI達成協議等多項消息公布後數小時內撰寫。為捍衛自身權益,Anthropic已於今年3月9日向美國加州北區聯邦地區法院提起訴訟,控告國防部及其他聯邦機構,指控川普政府此舉「前所未有且不合法」,並稱憲法不允許政府利用其龐大權力懲罰一家公司受保護的言論。
展望與影響:AI倫理與國安科技的未來
這起事件不僅是單一企業與政府的衝突,更深層次地反映了全球在AI技術快速發展背景下,如何平衡國家安全需求與公民權利、科技倫理的複雜挑戰。Anthropic的堅持,如同在科技巨輪前劃下一道紅線,試圖定義AI應用的人道邊界。未來,這場法律訴訟的結果,將可能為AI技術在軍事與政府層面的採購與應用,設定新的行業規範與道德準則。
這場爭議也促使人們重新思考科技公司在國家安全領域的角色與責任。當AI技術成為國防戰略的關鍵要素時,科技企業是否應擁有拒絕參與特定應用的權利?政府又該如何在確保國家利益的同時,尊重企業的倫理立場與言論自由?這些問題的答案,將深刻影響AI產業的發展方向,以及未來科技與社會的互動模式。

