論文の概要: Defensible Design for OpenClaw: Securing Autonomous Tool-Invoking Agents
- arxiv url: http://arxiv.org/abs/2603.13151v1
- Date: Fri, 13 Mar 2026 16:41:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.195831
- Title: Defensible Design for OpenClaw: Securing Autonomous Tool-Invoking Agents
- Title(参考訳): OpenClawの防御設計: 自律的ツール呼び出しエージェントのセキュア化
- Authors: Zongwei Li, Wenkai Li, Xiaoqi Li,
- Abstract要約: 本稿では,リスク分類,安全工学の原則,エージェント構築における安全性の制度化に向けた実践的研究の課題について述べる。
私たちはOpenClawを、インターフェイスと対話し、ファイルを操作し、ツールを起動し、実際の運用環境に拡張機能をインストールする、より広範なエージェントの例として使用しています。
私たちの目標は、コミュニティの焦点を、分離された脆弱性パッチから、体系的な防御エンジニアリングとロバストなデプロイメントプラクティスに移行することです。
- 参考スコア(独自算出の注目度): 6.97239848475551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: OpenClaw-like agents offer substantial productivity benefits, yet they are insecure by default because they combine untrusted inputs, autonomous action, extensibility, and privileged system access within a single execution loop. We use OpenClaw as an exemplar of a broader class of agents that interact with interfaces, manipulate files, invoke tools, and install extensions in real operating environments. Consequently, their security should be treated as a software engineering problem rather than as a product-specific concern. To address these architectural vulnerabilities, we propose a blueprint for defensible design. We present a risk taxonomy, secure engineering principles, and a practical research agenda to institutionalize safety in agent construction. Our goal is to transition the community focus from isolated vulnerability patching toward systematic defensive engineering and robust deployment practices.
- Abstract(参考訳): OpenClawのようなエージェントは、大幅な生産性向上を提供するが、信頼できないインプット、自律的なアクション、拡張性、特権付きシステムアクセスを単一の実行ループ内で組み合わせているため、デフォルトでは安全ではない。
私たちはOpenClawを、インターフェイスと対話し、ファイルを操作し、ツールを起動し、実際の運用環境に拡張機能をインストールする、より広範なエージェントの例として使用しています。
したがって、彼らのセキュリティは製品固有の関心事ではなく、ソフトウェアエンジニアリングの問題として扱われるべきである。
このようなアーキテクチャ上の脆弱性に対処するため,我々は設計の青写真を提案する。
本稿では,リスク分類,安全工学の原則,エージェント構築における安全性の制度化に向けた実践的研究の課題について述べる。
私たちの目標は、コミュニティの焦点を、分離された脆弱性パッチから、体系的な防御エンジニアリングとロバストなデプロイメントプラクティスに移行することです。
関連論文リスト
- Uncovering Security Threats and Architecting Defenses in Autonomous Agents: A Case Study of OpenClaw [42.9467373594646]
本報告では,OpenClawエコシステムの総合的なセキュリティ分析について述べる。
我々は、インジェクション駆動のRemote Code Execution(RCE)、シーケンシャルツールアタックチェーン、コンテキスト記憶、サプライチェーン汚染などの重要な脆弱性を強調した。
これらのシステム的アーキテクチャ欠陥に対処するために、フルライフサイクルエージェントセキュリティアーキテクチャ(FASA)を導入します。
この理論的な防御青写真は、ゼロトラストエージェント実行、動的意図検証、および層間推論-作用相関を提唱している。
論文 参考訳(メタデータ) (2026-03-13T04:33:05Z) - From Assistant to Double Agent: Formalizing and Benchmarking Attacks on OpenClaw for Personalized Local AI Agent [26.78481181726779]
現実世界のパーソナライズされたエージェントに適したエンドツーエンドのセキュリティ評価フレームワークを提案する。
代表的なケーススタディとしてOpenClawを使用して、複数のパーソナライズされたシナリオ、ツール機能、攻撃タイプにわたるセキュリティを評価します。
以上の結果から,OpenClawはさまざまな実行段階で重大な脆弱性を示し,個別のエージェントデプロイメントにおいて重大なセキュリティリスクを浮き彫りにしている。
論文 参考訳(メタデータ) (2026-02-09T09:14:58Z) - ORCA -- An Automated Threat Analysis Pipeline for O-RAN Continuous Development [57.61878484176942]
Open-Radio Access Network (O-RAN)は、多くのソフトウェアコンポーネントをクラウドのようなデプロイメントに統合し、これまで考えられていなかったセキュリティ脅威に無線アクセスネットワークを開放する。
現在の脆弱性評価の実践は、しばしば手動、労働集約、主観的な調査に依存しており、脅威分析の不整合につながる。
人間の介入や関連するバイアスを最小限に抑えるために,自然言語処理(NLP)を活用する自動パイプラインを提案する。
論文 参考訳(メタデータ) (2026-01-20T07:31:59Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Agent Safety Alignment via Reinforcement Learning [29.759393704688986]
ツール・ユース・エージェントのための一貫した安全アライメント・フレームワークを提案する。
我々は、良識、悪意があり、ユーザープロンプトとツール応答の両方に敏感な三段階分類を導入する。
その結果,安全性と有効性は共同で最適化できることが示唆された。
論文 参考訳(メタデータ) (2025-07-11T02:34:16Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Securing GenAI Multi-Agent Systems Against Tool Squatting: A Zero Trust Registry-Based Approach [0.0]
本稿では,新たな相互運用性標準の文脈におけるツールしゃがみ込みの脅威を解析する。
これらのリスクを軽減するために設計された総合的なツールレジストリシステムを導入している。
その設計原則に基づいて、提案されたレジストリフレームワークは、一般的なツールしゃがみベクトルを効果的に防止することを目的としている。
論文 参考訳(メタデータ) (2025-04-28T16:22:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。