論文の概要: ESAA-Security: An Event-Sourced, Verifiable Architecture for Agent-Assisted Security Audits of AI-Generated Code
- arxiv url: http://arxiv.org/abs/2603.06365v1
- Date: Fri, 06 Mar 2026 15:15:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.021533
- Title: ESAA-Security: An Event-Sourced, Verifiable Architecture for Agent-Assisted Security Audits of AI-Generated Code
- Title(参考訳): ESAA-Security:AI生成コードのエージェント支援セキュリティ監査のためのイベントソースで検証可能なアーキテクチャ
- Authors: Elzo Brito dos Santos Filho,
- Abstract要約: 本稿では,ソフトウェアリポジトリのエージェント支援セキュリティ監査のためのドメイン固有フレームワークであるESAA-Securityを提案する。
このフレームワークは構造化されたチェック結果、脆弱性の在庫、深刻度分類、リスク、修正ガイダンス、エグゼクティブサマリー、最終的なマークダウン/JSON監査レポートを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-assisted software generation has increased development speed, but it has also amplified a persistent engineering problem: systems that are functionally correct may still be structurally insecure. In practice, prompt-based security review with large language models often suffers from uneven coverage, weak reproducibility, unsupported findings, and the absence of an immutable audit trail. The ESAA architecture addresses a related governance problem in agentic software engineering by separating heuristic agent cognition from deterministic state mutation through append-only events, constrained outputs, and replay-based verification. This paper presents ESAA-Security, a domain-specific specialization of ESAA for agent-assisted security auditing of software repositories, with particular emphasis on AI-generated or AI-modified code. ESAA-Security structures auditing as a governed execution pipeline with four phases reconnaissance, domain audit execution, risk classification, and final reporting and operationalizes the workflow into 26 tasks, 16 security domains, and 95 executable checks. The framework produces structured check results, vulnerability inventories, severity classifications, risk matrices, remediation guidance, executive summaries, and a final markdown/JSON audit report. The central idea is that security review should not be modeled as a free-form conversation with an LLM, but as an evidence-oriented audit process governed by contracts and events. In ESAA-Security, agents emit structured intentions under constrained protocols; the orchestrator validates them, persists accepted outputs to an append-only log, reprojects derived views, and verifies consistency through replay and hashing. The result is a traceable, reproducible, and risk-oriented audit architecture whose final report is auditable by construction.
- Abstract(参考訳): AIによるソフトウェア生成は開発速度を向上する一方で、永続的なエンジニアリング問題を増幅している。
実際には、大規模な言語モデルによるプロンプトベースのセキュリティレビューは、不均一なカバレッジ、再現性の弱さ、サポート対象の発見、不変の監査証跡の欠如に悩まされることが多い。
ESAAアーキテクチャは、追加のみのイベント、制約されたアウトプット、リプレイベースの検証を通じて、ヒューリスティックエージェント認知と決定論的状態突然変異を分離することで、エージェントソフトウェアエンジニアリングにおける関連するガバナンス問題に対処する。
本稿では,ソフトウェアリポジトリのエージェント支援セキュリティ監査のためのESAAのドメイン特化であるESAA-Securityについて述べる。
ESAA-Security構造は4つのフェーズの偵察、ドメイン監査の実行、リスク分類、最終報告、ワークフローを26のタスク、16のセキュリティドメイン、95の実行可能なチェックで管理された実行パイプラインとして監査する。
このフレームワークは構造化されたチェック結果、脆弱性の在庫、深刻度分類、リスクマトリックス、修正ガイダンス、エグゼクティブサマリー、最終的なマークダウン/JSON監査レポートを生成する。
中心的な考え方は、セキュリティレビューはLLMとのフリーフォームな会話としてではなく、契約やイベントによって管理されるエビデンス指向の監査プロセスとしてモデル化されるべきである。
ESAA-Securityでは、エージェントは制約されたプロトコルの下で構造化された意図を出力し、オーケストレータはそれらを検証し、許容された出力を追加のみのログに永続化し、派生したビューを再プロジェクションし、リプレイとハッシュを通じて一貫性を検証する。
その結果、トレース可能で再現可能で、リスク指向の監査アーキテクチャとなり、最終報告は構築によって監査可能である。
関連論文リスト
- Aegis: Towards Governance, Integrity, and Security of AI Voice Agents [52.7512082818639]
音声エージェントのガバナンス,整合性,セキュリティのためのフレームワークであるAegisを提案する。
我々は,銀行コールセンタ,ITサポート,ロジスティクスにおけるケーススタディを通じて,この枠組みを評価する。
モデルファミリ間の系統的な差異を観察し,より感受性の高いオープンウェイトモデルを示した。
論文 参考訳(メタデータ) (2026-02-07T05:51:36Z) - Constitutional Spec-Driven Development: Enforcing Security by Construction in AI-Assisted Code Generation [0.0]
AIによる"バイブコーディング"は、迅速なソフトウェア開発を可能にするが、重大なセキュリティリスクをもたらす。
憲法仕様駆動開発(Constitutional Spec-Driven Development)は、非交渉可能なセキュリティ原則を仕様に組み込む方法論である。
憲法上の制約は、制約のないAI生成と比較してセキュリティ上の欠陥を73%削減することを示す。
論文 参考訳(メタデータ) (2026-01-31T19:08:16Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Agentic AI for Autonomous Defense in Software Supply Chain Security: Beyond Provenance to Vulnerability Mitigation [0.0]
本論文は,自律型ソフトウェアサプライチェーンセキュリティに基づくエージェント人工知能(AI)の例を含む。
大規模言語モデル(LLM)ベースの推論、強化学習(RL)、マルチエージェント調整を組み合わせている。
その結果、エージェントAIは、自己防衛的で積極的なソフトウェアサプライチェーンへの移行を促進することが示されている。
論文 参考訳(メタデータ) (2025-12-29T14:06:09Z) - MAIF: Enforcing AI Trust and Provenance with an Artifact-Centric Agentic Paradigm [0.5495755145898128]
現在のAIシステムは、監査証跡、証明追跡、EU AI Actのような新たな規則で要求される説明可能性に欠ける不透明なデータ構造で運用されている。
動作は一時的なタスクではなく、永続的で検証可能なデータアーティファクトによって駆動される、アーティファクト中心のAIエージェントパラダイムを提案する。
プロダクション対応実装では、超高速ストリーミング(2,720.7MB/s)、最適化されたビデオ処理(1,342MB/s)、エンタープライズレベルのセキュリティが示されている。
論文 参考訳(メタデータ) (2025-11-19T04:10:32Z) - AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [49.009041488527544]
A.S.Eは、AI生成コードのセキュリティを評価するためのリポジトリレベルの評価ベンチマークである。
現在の大規模言語モデル(LLM)は、セキュアなコーディングに苦戦している。
大きな推論予算は、必ずしもより良いコード生成につながるとは限らない。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。