美軍AI戰場劃界:Palantir揭境外應用,Anthropic拒監控遭政府報復提告

當人工智慧的倫理界線與國家安全需求正面對決,美國科技界正掀起一場前所未有的風暴。一家曾與國防部合作開發尖端AI的公司,竟因堅持其技術不應用於大規模監控美國公民或致命自主武器,而遭政府列為「國家風險」並提起訴訟。這不僅是技術應用的爭議,更是一場關於言論自由與政府權力界限的嚴肅拷問,其深層影響正逐步浮現。

表象:AI應用聚焦境外,倫理挑戰浮現

美國軟體巨擘Palantir的執行長亞歷克斯·卡普(Alex Karp)近日明確指出,美國國防部(DoD)的AI產品應用核心,主要鎖定在戰爭背景下的非美國公民,而非境內使用。此番言論在當前AI倫理與軍事應用引發全球高度關注之際,無疑為這場複雜的辯論劃下了初步的場域界線。有趣的是,另一家AI新創公司Anthropic,其實早於逾一年前便已直接與美國國防部合作,開發專為國防部設計的人工智慧技術,其模型Claude更據傳是首個獲准用於機密資訊的尖端系統。

真相:Anthropic的道德堅持與技術應用爭議

Anthropic的AI工具在今年一月曾被用於逮捕委內瑞拉總統尼可拉斯·馬杜羅(Nicolás Maduro),展現其在特定軍事行動中的潛在效能。然而,這家公司卻因為不願讓其AI模型用於大規模監控美國公民,或驅動可能導致無法挽回後果的致命自主武器,而與五角大廈(Pentagon)陷入了僵局。Anthropic的立場相當明確:他們認為當前的尖端AI模型尚未成熟到足以應用於全自主武器,且大規模監控美國公民的行為,根本上就違反了基本人權。因此,他們積極尋求五角大廈的保證,希望Claude模型不會被用於上述目的。

然而,五角大廈對於技術應用的態度顯得更為堅定,堅持Claude應可用於「所有合法用途」,這項原則性的分歧,成為雙方關係急轉直下的關鍵。這也正是Anthropic與美國政府之間的核心衝突點:一方堅持技術倫理與公民權利,另一方則強調國家安全與戰略彈性。

各方角力:政府施壓與企業反擊

這場爭議迅速升溫,並在檯面下引發了政治角力。川普(Donald Trump)政府於今年2月27日宣布,將Anthropic列為對國家安全構成供應鏈風險的公司。這項決定極具指標性,因為據悉,這是美國政府首次將一家美國本土企業認定為「國家風險」,其背後所傳達的政治訊號不容小覷。緊接著,Anthropic為一份內部備忘錄的洩露事件向政府致歉,該備忘錄內容批評了OpenAI接受五角大廈合作協議的決定,而Anthropic則選擇拒絕。Anthropic解釋,這份備忘錄是在川普總統透過Truth Social平台宣布將Anthropic從所有聯邦系統中移除、戰爭部長透過X平台宣布供應鏈風險認定,以及五角大廈與OpenAI達成協議等多項消息公布後數小時內撰寫,顯示了當時內部情緒的激烈波動。

面對來自政府的巨大壓力,Anthropic並未退縮。他們已於今年3月9日向美國加州北區聯邦地區法院提起訴訟,控告國防部及其他聯邦機構,直指川普政府此舉是「前所未有且不合法」,並堅稱「憲法不允許政府利用其龐大權力懲罰一家公司受保護的言論」。這場訴訟將美國政府與科技公司之間的權力界線,推向了司法檢驗的最前線。

Palantir執行長卡普補充表示:「我們仍在處理所有這些事務。是我們的技術棧在運行大型語言模型(LLMs)。」他強調,儘管Anthropic與Palantir曾於2024年合作,透過Palantir向國防部提供其AI技術,但國防部對AI產品的運用方向,從未包含境內使用。

深層影響:AI倫理、國安與言論自由的十字路口

這起事件不僅僅是Anthropic與政府之間的單一爭端,它更深刻地反映了當前人工智慧發展所面臨的複雜挑戰。當企業在道德原則上與政府的國家安全需求產生衝突時,其後果可能遠超想像。將一家國內科技公司列為「國家風險」,無疑會對整個產業產生寒蟬效應,讓其他在AI倫理方面持有疑慮的公司,在與政府合作時更加謹慎。此案的判決結果,將可能為未來AI技術在軍事和情報領域的應用,以及企業在其中所扮演的角色,樹立一個重要的法律與倫理先例。如何在確保國家安全的同時,又能保障公民權利與促進負責任的AI發展,成為各界必須嚴肅面對的課題。

未解之問:誰來定義AI的「合法用途」?

這場關於AI應用倫理與政府權力界限的風暴,顯然還未平息。隨著Anthropic的訴訟進入司法程序,法院將如何權衡國家安全、企業倫理與憲法言論自由的權利?五角大廈所堅持的「所有合法用途」,其定義究竟包含哪些範疇?而科技公司在面對國家機器時,又應如何堅守其核心價值?這些未解之問,將持續考驗著美國乃至全球對於人工智慧治理的智慧與決心。

Categories: