<p><strong>關鍵數字:</strong>安全研究發現,只需50個子指令就能完全繞過Claude Code的資安防護機制。</p>
<h2>📊 漏洞總覽</h2>
<p>以色列資安公司Adversa近期揭露Anthropic旗下AI開發工具「Claude Code」存在嚴重安全漏洞。該漏洞允許攻擊者透過特定手法,輕易繞過系統內建的安全限制機制。</p>
<h2>漏洞運作原理</h2>
<p>根據Adversa團隊分析,問題根源在於<strong>bashPermissions.ts</strong>檔案中的安全檢查機制。該機制設有「50個子指令」的上限設計,一旦指令數量超過此限制,系統將自動轉為「向使用者請求權限」模式,而非直接阻擋危險指令。</p>
<p>研究人員透過概念驗證(PoC)展示,只需串接50個無實際作用的「true」指令與一個被禁止的curl指令,就能成功觸發此漏洞。這種手法被稱為「提示注入」(Prompt Injection),可能導致系統執行原應被阻擋的危險操作。</p>
<h2>潛在風險分析</h2>
<p>此漏洞在實際應用場景中可能造成多重威脅:</p>
<ul>
<li>開發者在自動允許模式下可能不自覺授權危險指令</li>
<li>長時間工作可能導致反射性點擊同意</li>
<li>非互動模式的CI/CD流水線將直接觸發漏洞</li>
</ul>
<p>值得注意的是,從外洩原始碼中發現Anthropic內部已開發「tree-sitter」解析器可解決此問題,卻未實裝在公開版本中。</p>
<h2>修復建議與現況</h2>
<p>Adversa強調修補方案極為簡單,只需將超出指令上限的預設行為從「詢問」改為「拒絕」即可。然而截至報導時間,Anthropic尚未對此漏洞發表正式回應。</p>
<h2>常見問題 FAQ</h2>
<h3>什麼是「提示注入」漏洞?</h3>
<p>提示注入是指透過特殊設計的輸入指令,誘使AI系統忽略原本的安全限制,執行不該允許的操作。</p>
<h3>這個漏洞有多嚴重?</h3>
<p>該漏洞可能導致系統執行危險指令,特別是在自動化環境中風險更高,可能成為駭客入侵的突破口。</p>
<h3>一般使用者該如何防範?</h3>
<p>開發者應避免使用自動允許模式,並對所有權限請求保持警覺,直到官方發布修補程式。</p>
<script type="application/ld+json">{"@context":"https://schema.org","@type":"FAQPage","mainEntity":[{"@type":"Question","name":"什麼是「提示注入」漏洞?","acceptedAnswer":{"@type":"Answer","text":"提示注入是指透過特殊設計的輸入指令,誘使AI系統忽略原本的安全限制,執行不該允許的操作。"}},{"@type":"Question","name":"這個漏洞有多嚴重?","acceptedAnswer":{"@type":"Answer","text":"該漏洞可能導致系統執行危險指令,特別是在自動化環境中風險更高,可能成為駭客入侵的突破口。"}},{"@type":"Question","name":"一般使用者該如何防範?","acceptedAnswer":{"@type":"Answer","text":"開發者應避免使用自動允許模式,並對所有權限請求保持警覺,直到官方發布修補程式。"}}]}</script>
<p style="

