Anthropic新AI模型Claude Mythos驚傳外洩:效能超越旗艦,資安風險浮上檯面

人工智慧新創公司 Anthropic 近日證實,其開發中的強大 AI 模型「Claude Mythos」(代號「Capybara」)部分資訊因人為疏失意外外洩。這款被描述為 Anthropic 至今「最強大」的模型,其卓越效能與潛在資安風險,已引起業界廣泛關注,特別是對於高能力人工智慧發展的資安考量。

事件經過與模型實力揭露

這起資料外洩事件源於 Anthropic 在一個公開資料庫中,錯誤地發布了一份未公開的內部文件。該文件詳細揭露了新模型的名稱與其卓越性能。Anthropic 今日表示,公司目前正與少量早期客戶進行這款模型的試用作業,並已在收到外部通知後,立即阻擋了該資料庫的外部搜尋與文件檢視功能。

根據韓國媒體《Digital Today》的報導指出,這款新模型在效能上實現了「階梯式」的顯著進步,而非僅是循序漸進的改良。該模型在軟體編碼、學術推理及網路資安等多項評估中,均遠超 Anthropic 現有的旗艦模型 Claude Opus 4.6,展現出公司至今所開發模型中的最佳表現。文件亦指出,「Capybara」是繼現有 Opus、Sonnet 及 Haiku 系列之後,一個更龐大、更智能且成本更高的全新模型層級,而 Mythos 與 Capybara 似乎指的是同一款基礎模型。

各方對潛在資安風險的反應與觀察

針對此次外洩事件,Anthropic 解釋稱,外洩的資料僅是「早期草稿」,且是因「人為錯誤」所致。他們強調已即時處理,以降低潛在影響。不過,外洩文件本身則描述這款模型可能帶來「前所未有」的網路資安風險,這使得外界對於新一代高能力 AI 模型可能伴隨的潛在資安挑戰,開始抱持高度關注。

Anthropic 亦承認,他們正在開發一款通用型模型,並在推理、編碼和網路資安方面取得了實質性進展。這項技術的進步,一方面預示著人工智慧領域的巨大潛力,另一方面也突顯了在模型開發與部署過程中,必須嚴格把關資訊安全與防範潛在風險的重要性。

後續觀察與產業影響

此次 Anthropic 的資料外洩事件,不僅是單一公司的內部疏失,更成為業界檢視人工智慧模型開發流程與資安防護措施的縮影。隨著 AI 技術能力的不斷提升,如何確保其發展的安全性與可控性,將是所有人工智慧開發商及應用者必須共同面對的課題。未來,業界預期將會更加重視從模型設計、訓練到部署的每一個環節,以避免類似事件再次發生。

Categories: