論文の概要: ClawKeeper: Comprehensive Safety Protection for OpenClaw Agents Through Skills, Plugins, and Watchers
- arxiv url: http://arxiv.org/abs/2603.24414v1
- Date: Wed, 25 Mar 2026 15:27:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-26 21:06:11.361774
- Title: ClawKeeper: Comprehensive Safety Protection for OpenClaw Agents Through Skills, Plugins, and Watchers
- Title(参考訳): ClawKeeper: スキル、プラグイン、ウォッチャーによるOpenClawエージェントの総合的保護
- Authors: Songyang Liu, Chaozhuo Li, Chenxu Wang, Jinyu Hou, Zejian Chen, Litian Zhang, Zheng Liu, Qiwei Ye, Yiming Hei, Xi Zhang, Zhongyuan Wang,
- Abstract要約: ClawKeeperは3つの補完的なアーキテクチャ層にまたがって多次元保護機構を統合するリアルタイムセキュリティフレームワークである。
我々は、このWatcherパラダイムが、次世代の自律エージェントシステムを保護するための基礎的なビルディングブロックとして機能する可能性を持っていると論じる。
- 参考スコア(独自算出の注目度): 32.10899571321103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: OpenClaw has rapidly established itself as a leading open-source autonomous agent runtime, offering powerful capabilities including tool integration, local file access, and shell command execution. However, these broad operational privileges introduce critical security vulnerabilities, transforming model errors into tangible system-level threats such as sensitive data leakage, privilege escalation, and malicious third-party skill execution. Existing security measures for the OpenClaw ecosystem remain highly fragmented, addressing only isolated stages of the agent lifecycle rather than providing holistic protection. To bridge this gap, we present ClawKeeper, a real-time security framework that integrates multi-dimensional protection mechanisms across three complementary architectural layers. (1) \textbf{Skill-based protection} operates at the instruction level, injecting structured security policies directly into the agent context to enforce environment-specific constraints and cross-platform boundaries. (2) \textbf{Plugin-based protection} serves as an internal runtime enforcer, providing configuration hardening, proactive threat detection, and continuous behavioral monitoring throughout the execution pipeline. (3) \textbf{Watcher-based protection} introduces a novel, decoupled system-level security middleware that continuously verifies agent state evolution. It enables real-time execution intervention without coupling to the agent's internal logic, supporting operations such as halting high-risk actions or enforcing human confirmation. We argue that this Watcher paradigm holds strong potential to serve as a foundational building block for securing next-generation autonomous agent systems. Extensive qualitative and quantitative evaluations demonstrate the effectiveness and robustness of ClawKeeper across diverse threat scenarios. We release our code.
- Abstract(参考訳): OpenClawは、ツール統合、ローカルファイルアクセス、シェルコマンド実行などの強力な機能を提供する、オープンソースの自律エージェントランタイムとして急速に確立した。
しかしながら、これらの広範な運用権限は、重要なセキュリティ脆弱性を導入し、モデルエラーを機密データ漏洩、特権のエスカレーション、悪意のあるサードパーティのスキル実行といった、具体的なシステムレベルの脅威に変換する。
既存のOpenClawエコシステムのセキュリティ対策は非常に断片的であり、全体的な保護を提供するのではなく、エージェントライフサイクルの独立したステージにのみ対応している。
このギャップを埋めるために、我々はClawKeeperというリアルタイムセキュリティフレームワークを紹介します。
1) \textbf{Skill-based protection} は命令レベルで動作し、環境固有の制約やクロスプラットフォームの境界を強制するために、エージェントコンテキストに直接構造化されたセキュリティポリシーを注入する。
2) \textbf{Plugin-based Protection}は、内部ランタイムの執行役として機能し、構成の硬化、プロアクティブな脅威検出、実行パイプライン全体の継続的な動作監視を提供する。
(3) \textbf{Watcher-based protection} は、エージェント状態の進化を継続的に検証する、分離されたシステムレベルのセキュリティミドルウェアを新たに導入する。
エージェントの内部ロジックと結合することなくリアルタイム実行の介入を可能にし、ハイリスクアクションの停止や人間の確認の実施などの操作をサポートする。
我々は、このWatcherパラダイムが、次世代の自律エージェントシステムを保護するための基礎的なビルディングブロックとして機能する可能性を持っていると論じる。
大規模な質的および定量的評価は、様々な脅威シナリオにおけるClawKeeperの有効性と堅牢性を示している。
コードをリリースします。
関連論文リスト
- Defensible Design for OpenClaw: Securing Autonomous Tool-Invoking Agents [6.97239848475551]
本稿では,リスク分類,安全工学の原則,エージェント構築における安全性の制度化に向けた実践的研究の課題について述べる。
私たちはOpenClawを、インターフェイスと対話し、ファイルを操作し、ツールを起動し、実際の運用環境に拡張機能をインストールする、より広範なエージェントの例として使用しています。
私たちの目標は、コミュニティの焦点を、分離された脆弱性パッチから、体系的な防御エンジニアリングとロバストなデプロイメントプラクティスに移行することです。
論文 参考訳(メタデータ) (2026-03-13T16:41:11Z) - Uncovering Security Threats and Architecting Defenses in Autonomous Agents: A Case Study of OpenClaw [42.9467373594646]
本報告では,OpenClawエコシステムの総合的なセキュリティ分析について述べる。
我々は、インジェクション駆動のRemote Code Execution(RCE)、シーケンシャルツールアタックチェーン、コンテキスト記憶、サプライチェーン汚染などの重要な脆弱性を強調した。
これらのシステム的アーキテクチャ欠陥に対処するために、フルライフサイクルエージェントセキュリティアーキテクチャ(FASA)を導入します。
この理論的な防御青写真は、ゼロトラストエージェント実行、動的意図検証、および層間推論-作用相関を提唱している。
論文 参考訳(メタデータ) (2026-03-13T04:33:05Z) - Taming OpenClaw: Security Analysis and Mitigation of Autonomous LLM Agent Threats [29.43070870263607]
我々はOpenClawの総合的なセキュリティ脅威分析を行う。
本研究は, 間接的プロンプト注入, スキルサプライチェーン汚染, メモリ中毒, インテントドリフトなど, エージェントのライフサイクル全体にわたる脅威について検討する。
本研究は,時間的・多段階のシステム的リスクに対処する際の,現在のポイントベース防御機構の重大な欠陥を明らかにするものである。
論文 参考訳(メタデータ) (2026-03-12T07:24:05Z) - Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - RoboSafe: Safeguarding Embodied Agents via Executable Safety Logic [56.38397499463889]
視覚言語モデル(VLM)を利用するエージェントは、複雑な現実世界のタスクを実行する能力がますます高まっている。
しかし、安全でない行動を引き起こす可能性のある危険な指示に弱いままである。
提案するRoboSafeは,実行可能述語ベースの安全ロジックを通じて,エージェントを具体化するためのランタイムセーフガードである。
論文 参考訳(メタデータ) (2025-12-24T15:01:26Z) - MCPGuard : Automatically Detecting Vulnerabilities in MCP Servers [16.620755774987774]
Model Context Protocol(MCP)は、LLM(Large Language Models)と外部データソースとツールのシームレスな統合を可能にする標準化されたインターフェースとして登場した。
本稿では,3つの主要な脅威カテゴリを識別し,MCPベースのシステムのセキュリティ状況を体系的に解析する。
論文 参考訳(メタデータ) (2025-10-27T05:12:51Z) - AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement Learning [78.5751183537704]
AdvEvo-MARLは、タスクエージェントに安全性を内部化する、共進化型マルチエージェント強化学習フレームワークである。
外部ガードに頼るのではなく、AdvEvo-MARLは攻撃者と防御者を共同で最適化する。
論文 参考訳(メタデータ) (2025-10-02T02:06:30Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - LlamaFirewall: An open source guardrail system for building secure AI agents [0.5603362829699733]
大規模言語モデル(LLM)は、単純なチャットボットから複雑なタスクを実行できる自律エージェントへと進化してきた。
リスクを軽減するための決定論的解決策が欠如していることを考えると、リアルタイムガードレールモニターが不可欠である。
私たちはオープンソースのセキュリティにフォーカスしたガードレールフレームワークであるLlamaFirewallを紹介します。
論文 参考訳(メタデータ) (2025-05-06T14:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。