論文の概要: Autonomous Action Runtime Management(AARM):A System Specification for Securing AI-Driven Actions at Runtime
- arxiv url: http://arxiv.org/abs/2602.09433v1
- Date: Tue, 10 Feb 2026 05:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.394153
- Title: Autonomous Action Runtime Management(AARM):A System Specification for Securing AI-Driven Actions at Runtime
- Title(参考訳): 自律アクションランタイム管理(AARM):実行時にAI駆動アクションをセキュアにするためのシステム仕様
- Authors: Herman Errico,
- Abstract要約: 本稿では,AI駆動型動作を実行時にセキュアにするためのオープン仕様であるAutonomous Action Management(AARM)を紹介する。
AARMは実行前にアクションをインターセプトし、セッションコンテキストを蓄積し、ポリシーと意図の整合性を評価し、承認決定を強制し、法医学的な再構築のための未確認のレシートを記録する。
AARMはモデルに依存しない、フレームワークに依存しない、ベンダーに依存しない、アクション実行を安定したセキュリティ境界として扱う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence systems evolve from passive assistants into autonomous agents capable of executing consequential actions, the security boundary shifts from model outputs to tool execution. Traditional security paradigms - log aggregation, perimeter defense, and post-hoc forensics - cannot protect systems where AI-driven actions are irreversible, execute at machine speed, and originate from potentially compromised orchestration layers. This paper introduces Autonomous Action Runtime Management (AARM), an open specification for securing AI-driven actions at runtime. AARM defines a runtime security system that intercepts actions before execution, accumulates session context, evaluates against policy and intent alignment, enforces authorization decisions, and records tamper-evident receipts for forensic reconstruction. We formalize a threat model addressing prompt injection, confused deputy attacks, data exfiltration, and intent drift. We introduce an action classification framework distinguishing forbidden, context-dependent deny, and context-dependent allow actions. We propose four implementation architectures - protocol gateway, SDK instrumentation, kernel eBPF, and vendor integration - with distinct trust properties, and specify minimum conformance requirements for AARM-compliant systems. AARM is model-agnostic, framework-agnostic, and vendor-neutral, treating action execution as the stable security boundary. This specification aims to establish industry-wide requirements before proprietary fragmentation forecloses interoperability.
- Abstract(参考訳): 人工知能システムは、受動的アシスタントから、連続的なアクションを実行可能な自律エージェントへと進化するにつれて、セキュリティ境界はモデル出力からツール実行へとシフトする。
従来のセキュリティパラダイム、ログアグリゲーション、周辺防御、そしてポストホックの法医学は、AI駆動のアクションが不可逆的なシステムを保護することができず、マシンの速度で実行され、潜在的に妥協されたオーケストレーションレイヤから生まれます。
本稿では,AI駆動型動作を実行時にセキュアにするためのオープン仕様であるAutonomous Action Runtime Management(AARM)を紹介する。
AARMは実行前にアクションをインターセプトし、セッションコンテキストを蓄積し、ポリシーと意図の整合性を評価し、承認決定を強制し、法医学的な再構築のための未確認のレシートを記録するランタイムセキュリティシステムを定義している。
我々は、迅速なインジェクション、混乱した副攻撃、データの流出、意図の漂流に対処する脅威モデルを定式化する。
本稿では、禁止された、コンテキスト依存の拒否、コンテキスト依存の許容アクションを区別するアクション分類フレームワークを提案する。
本稿では,プロトコルゲートウェイ,SDKインスツルメンテーション,カーネルeBPF,ベンダ統合の4つの実装アーキテクチャを提案する。
AARMはモデルに依存しない、フレームワークに依存しない、ベンダーに依存しない、アクション実行を安定したセキュリティ境界として扱う。
この仕様は、プロプライエタリなフラグメンテーションが相互運用性を隠蔽する前に、業界全体の要求を確立することを目的としている。
関連論文リスト
- Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - Faramesh: A Protocol-Agnostic Execution Control Plane for Autonomous Agent Systems [0.0]
Farameshはプロトコルに依存しない実行制御プレーンで、エージェント駆動アクションの実行時間認証を強制する。
これらのプリミティブが自律的な実行に対して、強制可能で予測可能なガバナンスを実現する方法を示します。
論文 参考訳(メタデータ) (2026-01-25T08:27:27Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Securing the Model Context Protocol (MCP): Risks, Controls, and Governance [1.4072883206858737]
我々は、MPPの柔軟性を生かした3種類の敵に焦点を当てる。
早期のインシデントと概念実証攻撃に基づいて,MPPが攻撃面を増加させる方法について述べる。
本稿では,ユーザ単位の認証とスコープ認証を含む,一連の実用的な制御を提案する。
論文 参考訳(メタデータ) (2025-11-25T23:24:26Z) - IRSDA: An Agent-Orchestrated Framework for Enterprise Intrusion Response [7.470506991479105]
侵入応答システムデジタルアシスタント(Intrusion Response System Digital Assistant、IRSDA)は、自律的でポリシーに準拠したサイバー防御を提供するために設計されたエージェントベースのフレームワークである。
IRSDAには、コンテキスト情報とAIベースの推論を統合して、システム誘導の侵入応答をサポートする知識駆動アーキテクチャが組み込まれている。
本研究は, 侵入応答における説明可能性, システム状態認識, 操作制御を重視した, サイバー防御に対するモジュール型エージェント駆動型アプローチの概要である。
論文 参考訳(メタデータ) (2025-11-24T19:21:09Z) - AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - Adaptive Attacks on Trusted Monitors Subvert AI Control Protocols [80.68060125494645]
プロトコルとモニタモデルを知っている信頼できないモデルによるアダプティブアタックについて検討する。
我々は、攻撃者がモデル出力に公知またはゼロショットプロンプトインジェクションを埋め込む単純な適応攻撃ベクトルをインスタンス化する。
論文 参考訳(メタデータ) (2025-10-10T15:12:44Z) - Cuckoo Attack: Stealthy and Persistent Attacks Against AI-IDE [64.47951172662745]
Cuckoo Attackは、悪意のあるペイロードを構成ファイルに埋め込むことで、ステルス性と永続的なコマンド実行を実現する新しい攻撃である。
攻撃パラダイムを初期感染と持続性という2つの段階に分類する。
当社は、ベンダーが製品のセキュリティを評価するために、実行可能な7つのチェックポイントを提供しています。
論文 参考訳(メタデータ) (2025-09-19T04:10:52Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。