根據數位發展部資安署最新警示指出,具備自主執行能力的 AI 代理工具,如近期備受關注的開源專案 OpenClaw(俗稱龍蝦),雖能顯著提升自動化任務效率,卻因其高系統權限與 24 小時自主運作特性,若資安防護機制不足,極易成為駭客入侵個人主機與企業網路的破口,恐導致使用者個資、帳號密碼及金融資料等機敏資訊外洩,進而引發身分冒用與財產損失的嚴重風險。資安署特別提醒,各界在導入此類工具時,務必落實環境隔離與資安防護措施。
AI 代理工具潛在的系統性風險剖析
資安署強調,AI 代理的資安風險並非僅限於單一漏洞,而是涉及架構層面的系統性挑戰。例如,Oasis Security 的研究人員曾揭露「ClawJacked」漏洞(CVE-2026-25253),其攻擊手法令人擔憂:攻擊者僅需誘導使用者瀏覽惡意網頁,便能在不觸發瀏覽器安全警報的情況下,對 AI 代理的管理員權限進行暴力破解。據報告指出,該漏洞已於 2026 年 1 月 29 日修補,但這類案例足以證明 AI 代理在與外部環境互動時,潛藏著不容忽視的資安威脅。
「AI 代理的資安風險並非單一漏洞問題,而是涉及架構層面的系統性風險。」— 數位發展部資安署
這類新型態的威脅情境,提醒我們必須重新審視傳統的資安防護思維。當 AI 代理被賦予高度自主權,並被允許在網路世界中自由「行動」時,任何微小的設定疏漏或漏洞,都可能被惡意人士利用,進而危害整個資訊系統的安全。
惡意指令與擴充套件的隱藏威脅
在評估 AI 代理工具的風險時,數位發展部資安署特別點出兩種常見的威脅情境。首先,惡意指令可能暗藏於外部網頁或社群留言中。當 AI 代理瀏覽外部網頁或讀取真實世界的社群內容時,若其中暗藏攻擊者預埋的惡意指令,AI 代理便有可能在不知情的情況下執行刪除檔案、竄改系統設定等危險操作,造成難以預期的破壞。
再者,第三方技能包也可能暗藏惡意程式。AI 代理可透過安裝名為「技能」(Skill)的擴充套件來執行訂票、製作影片等複雜任務。由於網路上已有開放平台供使用者分享自製的擴充包,攻擊者便有機可乘,將惡意行為指令寫入其中並偽裝成正常的 Skill 上架。一旦使用者安裝了這類惡意擴充套件,其主機便可能被植入後門或惡意程式,導致機敏資訊外洩。
長期運作下的安全盲區與防護策略
另一個值得關注的資安盲區,是 AI 代理在長時間運作後可能發生的「安全守則遺失」現象。由於 AI 代理能處理的資訊量有限,長時間運作後會自動壓縮早期內容以騰出空間。在這個過程中,原本設定好的安全規則與權限設置可能被刪減,導致 AI 代理逐漸「忘記」哪些事不該做,進而產生失控行為。為此,資安署建議各界在評估與導入此類新型 AI 代理工具時,應提高警覺並落實下列五項實務措施:
- 落實環境隔離:避免將 AI 代理安裝於存放機密資料或日常作業的環境。應將其部署於全新、已格式化的獨立電腦,或是專屬的虛擬機(Virtual Machine)或容器(Container)中,以進行有效的風險管控。
- 外部帳號權限最小化:為 AI 代理註冊專屬的獨立帳號(包含專用電子郵件及社群平台帳號),避免將個人日常使用的帳號與密碼直接提供給 AI 代理。若 AI 代理必須登入外部服務,建議設定具有時效性的臨時授權憑證,時間一到權限即自動失效,避免日後因疏於管理而導致帳號遭竊。
- 設置人類審核機制:針對高風險操作(如存取憑證、發送郵件或執行系統指令),應於系統設定中強制啟用人工審核,要求每次執行前必須經由人員手動確認方可放行。
- 親自審查 Skill 擴充套件:在安裝任何第三方技能擴充套件前,應先對其內容說明與程式碼進行完整的安全掃描。若發現內容中有要求下載不明檔案、連線至不明網站等可疑行為,應立即停止安裝並向平台檢舉,同時企業用戶應於組織內部進行資安通報。
- 將安全守則寫入「長期記憶」:定期審閱且備份 AI 的長期記憶檔。務必將重要的安全限制(例如刪除郵件前必須經過人員同意)直接寫入「核心記憶檔案」(如 OpenClaw 的 MEMORY.md)中,確保每次運作時都會強制載入安全守則,避免因記憶壓縮而遺忘設定好的防護設定。
數據背後的啟示:兼顧創新與安全的平衡之道
數位發展部資安署最終強調,AI 代理技術無疑能為各行各業帶來顯著的創新效益與效率提升。然而,這項技術的導入與應用,必須在「環境隔離」與「人工審核」這兩大前提下進行測試與推廣,方能有效兼顧數位發展的進程與資訊安全的堅實防線。唯有如此,我們才能充分發揮 AI 代理的潛力,同時避免其成為駭客入侵的溫床,確保數位環境的穩定與安全。

