論文の概要: The Aegis Protocol: A Foundational Security Framework for Autonomous AI Agents
- arxiv url: http://arxiv.org/abs/2508.19267v1
- Date: Fri, 22 Aug 2025 06:18:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.326531
- Title: The Aegis Protocol: A Foundational Security Framework for Autonomous AI Agents
- Title(参考訳): Aegis Protocol: 自律型AIエージェントのための基盤セキュリティフレームワーク
- Authors: Sai Teja Reddy Adapala, Yashwanth Reddy Alugubelly,
- Abstract要約: 自律型AIエージェントの普及は、複雑で創発的なマルチエージェントシステムへのパラダイムシフトを表している。
本稿では,オープンエージェントエコシステムに強力なセキュリティ保証を提供するために設計された階層型セキュリティフレームワークであるAegis Protocolを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of autonomous AI agents marks a paradigm shift toward complex, emergent multi-agent systems. This transition introduces systemic security risks, including control-flow hijacking and cascading failures, that traditional cybersecurity paradigms are ill-equipped to address. This paper introduces the Aegis Protocol, a layered security framework designed to provide strong security guarantees for open agentic ecosystems. The protocol integrates three technological pillars: (1) non-spoofable agent identity via W3C Decentralized Identifiers (DIDs); (2) communication integrity via NIST-standardized post-quantum cryptography (PQC); and (3) verifiable, privacy-preserving policy compliance using the Halo2 zero-knowledge proof (ZKP) system. We formalize an adversary model extending Dolev-Yao for agentic threats and validate the protocol against the STRIDE framework. Our quantitative evaluation used a discrete-event simulation, calibrated against cryptographic benchmarks, to model 1,000 agents. The simulation showed a 0 percent success rate across 20,000 attack trials. For policy verification, analysis of the simulation logs reported a median proof-generation latency of 2.79 seconds, establishing a performance baseline for this class of security. While the evaluation is simulation-based and early-stage, it offers a reproducible baseline for future empirical studies and positions Aegis as a foundation for safe, scalable autonomous AI.
- Abstract(参考訳): 自律型AIエージェントの普及は、複雑で創発的なマルチエージェントシステムへのパラダイムシフトを表している。
この移行は、コントロールフローのハイジャックやカスケード障害など、従来のサイバーセキュリティパラダイムが対処できないようなシステム的セキュリティリスクを導入します。
本稿では,オープンエージェントエコシステムに強力なセキュリティ保証を提供するために設計された階層型セキュリティフレームワークであるAegis Protocolを紹介する。
このプロトコルは、(1)W3Cによる非偽造エージェント識別(DID)、(2)NIST標準化後量子暗号(PQC)による通信の整合性、(3)Halo2ゼロ知識証明(ZKP)システムを用いた検証済みのプライバシー保護ポリシーコンプライアンスの3つの技術柱を統合している。
本稿では,エージェントの脅威に対してDolev-Yaoを拡張し,STRIDEフレームワークに対するプロトコルの検証を行う。
私たちの定量的評価では、1000のエージェントをモデル化するために、暗号ベンチマークに対して校正された離散イベントシミュレーションを使用しました。
シミュレーションでは、2万件の攻撃試験で0パーセントの成功率を示した。
政策検証では、シミュレーションログの分析では、中央値の証明生成遅延が2.79秒と報告され、このクラスのセキュリティのパフォーマンス基準が確立された。
評価はシミュレーションベースで初期段階だが、将来の実証研究の再現可能なベースラインを提供し、Aegisを安全でスケーラブルな自律AIの基礎と位置づけている。
関連論文リスト
- A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [48.10068691540979]
A.S.E(AI Code Generation Security Evaluation)は、リポジトリレベルのセキュアコード生成のためのベンチマークである。
A.S.Eは、ドキュメント化されたCVEで実際のリポジトリからタスクを構築し、完全なリポジトリコンテキストを保存する。
その再現性のあるコンテナ化評価フレームワークは、専門家定義のルールを使用して、セキュリティ、ビルド品質、生成安定性の安定的で監査可能な評価を提供する。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - Design and analysis of a set of discrete variable protocols for secure quantum communication [0.0]
量子ID認証(QIA)プロトコルは過去30年間に提案されてきた。
この論文は、2つの新しいQKDプロトコルを示し、絡み合いや理想的な単一光子源の必要性を排除している。
これらのプロトコルは、インターセプトと特定の集団攻撃を含む様々な攻撃に対して安全であることが厳格に証明されている。
論文 参考訳(メタデータ) (2025-08-08T15:12:29Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Blockchain Meets Adaptive Honeypots: A Trust-Aware Approach to Next-Gen IoT Security [6.649910168731417]
エッジコンピューティングベースのNext-Generation Wireless Networks (NGWN)-IoTは、大規模サービスプロビジョニングのために帯域幅を拡張できる。
既存の侵入検知・防止方法は、敵の攻撃戦略を継続的に適応させるため、限られたセキュリティを提供する。
本稿では,この課題に対処するための動的攻撃検出・防止手法を提案する。
論文 参考訳(メタデータ) (2025-04-22T19:36:19Z) - Guardians of the Agentic System: Preventing Many Shots Jailbreak with Agentic System [0.8136541584281987]
本研究は,3つの検査手法を用いて,逆チューリングテストによりローグエージェントを検出し,マルチエージェントシミュレーションにより知覚的アライメントを解析する。
GEMINI 1.5 Pro と llama-3.3-70B, Deepseek r1 モデルを用いて, 抗ジェイルブレイクシステムを開発した。
GEMINI 1.5 Proの94%の精度など、検出能力は強いが、長時間の攻撃を受けた場合、システムは永続的な脆弱性に悩まされる。
論文 参考訳(メタデータ) (2025-02-23T23:35:15Z) - SecCodePLT: A Unified Platform for Evaluating the Security of Code GenAI [47.11178028457252]
我々はGenAIのリスクをコードする統合的かつ包括的な評価プラットフォームSecCodePLTを開発した。
安全でないコードには、専門家と自動生成を組み合わせたデータ生成のための新しい方法論を導入する。
サイバー攻撃支援のために、我々はモデルに実際の攻撃を引き起こすよう促すサンプルと、我々の環境における動的な指標を構築した。
論文 参考訳(メタデータ) (2024-10-14T21:17:22Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。