論文の概要: A2AS: Agentic AI Runtime Security and Self-Defense
- arxiv url: http://arxiv.org/abs/2510.13825v1
- Date: Wed, 08 Oct 2025 14:28:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.447054
- Title: A2AS: Agentic AI Runtime Security and Self-Defense
- Title(参考訳): A2AS:エージェントAIランタイムのセキュリティと自己依存
- Authors: Eugene Neelou, Ivan Novikov, Max Moroz, Om Narayan, Tiffany Saade, Mika Ayenson, Ilya Kabanov, Jen Ozmen, Edward Lee, Vineeth Sai Narajala, Emmanuel Guilherme Junior, Ken Huang, Huseyin Gulsin, Jason Ross, Marat Vyshegorodtsev, Adelin Travers, Idan Habler, Rahul Jadav,
- Abstract要約: A2ASフレームワークはAIエージェントとLLMベースのアプリケーションのセキュリティレイヤとして導入された。
A2ASは認証された動作を実行し、モデルの自己防衛を起動し、コンテキストウィンドウの整合性を保証する。
セキュリティ境界を定義し、プロンプトを認証し、セキュリティルールとカスタムポリシーを適用し、エージェントの動作を制御する。
- 参考スコア(独自算出の注目度): 0.11630883536265196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The A2AS framework is introduced as a security layer for AI agents and LLM-powered applications, similar to how HTTPS secures HTTP. A2AS enforces certified behavior, activates model self-defense, and ensures context window integrity. It defines security boundaries, authenticates prompts, applies security rules and custom policies, and controls agentic behavior, enabling a defense-in-depth strategy. The A2AS framework avoids latency overhead, external dependencies, architectural changes, model retraining, and operational complexity. The BASIC security model is introduced as the A2AS foundation: (B) Behavior certificates enable behavior enforcement, (A) Authenticated prompts enable context window integrity, (S) Security boundaries enable untrusted input isolation, (I) In-context defenses enable secure model reasoning, (C) Codified policies enable application-specific rules. This first paper in the series introduces the BASIC security model and the A2AS framework, exploring their potential toward establishing the A2AS industry standard.
- Abstract(参考訳): A2ASフレームワークは、HTTPSによるHTTPのセキュリティと同様、AIエージェントやLLMベースのアプリケーションのためのセキュリティレイヤとして導入された。
A2ASは認証された動作を実行し、モデルの自己防衛を起動し、コンテキストウィンドウの整合性を保証する。
セキュリティ境界を定義し、プロンプトを認証し、セキュリティルールとカスタムポリシーを適用し、エージェントの振る舞いを制御し、詳細な戦略を可能にする。
A2ASフレームワークは、レイテンシのオーバーヘッド、外部依存関係、アーキテクチャの変更、モデル再トレーニング、運用上の複雑さを回避する。
B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B )(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)))))B(B)(B)(B)(B)(B)( B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)())))B)(B)(B)(B)(B)(B)(B)( B)(B)(B)(B)(B)(B)(B)(B)(B)(B)(B)()))))))B(B(B(B
このシリーズの最初の論文では、BASICセキュリティモデルとA2ASフレームワークを紹介し、A2AS業界標準を確立する可能性を探っている。
関連論文リスト
- BlockA2A: Towards Secure and Verifiable Agent-to-Agent Interoperability [8.539128225018489]
BlockA2Aはエージェントとエージェントの相互運用性のための統合されたマルチエージェント信頼フレームワークである。
集中的な信頼ボトルネックを排除し、メッセージの信頼性と実行の整合性を確保し、エージェント間のインタラクションにおける説明責任を保証する。
ビザンチンエージェントのフラグング、リアクティブ実行停止、即時許可取り消しなど、リアルタイムメカニズムによる攻撃を中和する。
論文 参考訳(メタデータ) (2025-08-02T11:59:21Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - ARMOR: Aligning Secure and Safe Large Language Models via Meticulous Reasoning [49.47193675702453]
大規模言語モデル(LLM)は、顕著な生成能力を示している。
LLMは、安全上の制約を回避できる悪意のある命令に弱いままである。
推論に基づく安全アライメントフレームワークARMORを提案する。
論文 参考訳(メタデータ) (2025-07-14T09:05:54Z) - OpenAgentSafety: A Comprehensive Framework for Evaluating Real-World AI Agent Safety [58.201189860217724]
OpenAgentSafetyは,8つの危機リスクカテゴリにまたがるエージェントの動作を評価する包括的なフレームワークである。
従来の作業とは異なり、我々のフレームワークは、Webブラウザ、コード実行環境、ファイルシステム、bashシェル、メッセージングプラットフォームなど、実際のツールと対話するエージェントを評価します。
ルールベースの分析とLSM-as-judgeアセスメントを組み合わせることで、過度な行動と微妙な不安全行動の両方を検出する。
論文 参考訳(メタデータ) (2025-07-08T16:18:54Z) - Building A Secure Agentic AI Application Leveraging A2A Protocol [0.0]
A2Aプロトコルを中心とした総合的なセキュリティ分析を提供する。
我々は、A2Aデプロイメントにおける潜在的なセキュリティ問題を評価するために、積極的な脅威モデリングを適用する。
本稿では,A2Aプロトコルを確実に活用するために必要な知識と実践的ガイダンスを開発者やアーキテクトに提供する。
論文 参考訳(メタデータ) (2025-04-23T17:27:49Z) - DoomArena: A framework for Testing AI Agents Against Evolving Security Threats [84.94654617852322]
本稿では,AIエージェントのセキュリティ評価フレームワークであるDoomArenaを紹介する。
プラグインフレームワークであり、現実的なエージェントフレームワークと簡単に統合できる。
モジュールであり、エージェントがデプロイされる環境の詳細から攻撃の開発を分離する。
論文 参考訳(メタデータ) (2025-04-18T20:36:10Z) - Tit-for-Tat: Safeguarding Large Vision-Language Models Against Jailbreak Attacks via Adversarial Defense [90.71884758066042]
大きな視覚言語モデル(LVLM)は、視覚入力による悪意のある攻撃に対する感受性という、ユニークな脆弱性を導入している。
本稿では,脆弱性発生源からアクティブ防衛機構へ視覚空間を変換するための新しい手法であるESIIIを提案する。
論文 参考訳(メタデータ) (2025-03-14T17:39:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。