論文の概要: Agentic AI for Cybersecurity: A Meta-Cognitive Architecture for Governable Autonomy
- arxiv url: http://arxiv.org/abs/2602.11897v1
- Date: Thu, 12 Feb 2026 12:52:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.813186
- Title: Agentic AI for Cybersecurity: A Meta-Cognitive Architecture for Governable Autonomy
- Title(参考訳): サイバーセキュリティのためのエージェントAI: 統治可能な自律性のためのメタ認知アーキテクチャ
- Authors: Andrei Kojukhov, Arkady Bovshover,
- Abstract要約: 本稿では,サイバーセキュリティのオーケストレーションはエージェント型マルチエージェント認知システムとして再認識されるべきである,と論じる。
本稿では,特定・仮説形成・文脈解釈・説明・ガバナンスに責任を負う異種AIエージェントを,メタ認知判断機能を通じて協調する概念的枠組みを提案する。
我々の貢献は、メタ認知判断を第一級システム機能として組み込むことによって、この認知構造をアーキテクチャ的に明確化し、統制可能にすることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contemporary AI-driven cybersecurity systems are predominantly architected as model-centric detection and automation pipelines optimized for task-level performance metrics such as accuracy and response latency. While effective for bounded classification tasks, these architectures struggle to support accountable decision-making under adversarial uncertainty, where actions must be justified, governed, and aligned with organizational and regulatory constraints. This paper argues that cybersecurity orchestration should be reconceptualized as an agentic, multi-agent cognitive system, rather than a linear sequence of detection and response components. We introduce a conceptual architectural framework in which heterogeneous AI agents responsible for detection, hypothesis formation, contextual interpretation, explanation, and governance are coordinated through an explicit meta-cognitive judgement function. This function governs decision readiness and dynamically calibrates system autonomy when evidence is incomplete, conflicting, or operationally risky. By synthesizing distributed cognition theory, multi-agent systems research, and responsible AI governance frameworks, we demonstrate that modern security operations already function as distributed cognitive systems, albeit without an explicit organizing principle. Our contribution is to make this cognitive structure architecturally explicit and governable by embedding meta-cognitive judgement as a first-class system function. We discuss implications for security operations centers, accountable autonomy, and the design of next-generation AI-enabled cyber defence architectures. The proposed framework shifts the focus of AI in cybersecurity from optimizing isolated predictions to governing autonomy under uncertainty.
- Abstract(参考訳): 現代のAI駆動型サイバーセキュリティシステムは、主にモデル中心の検出と自動化パイプラインとして設計されており、正確性や応答レイテンシといったタスクレベルのパフォーマンスメトリクスに最適化されている。
境界付けられた分類タスクには有効であるが、これらのアーキテクチャは敵の不確実性の下で説明責任のある意思決定をサポートするのに苦労する。
本稿では、サイバーセキュリティのオーケストレーションは、検出・応答コンポーネントの線形シーケンスではなく、エージェント型多エージェント認知システムとして再認識されるべきである、と論じる。
本稿では, 異種AIエージェントによる検出, 仮説形成, 文脈解釈, 説明, ガバナンスを, 明確なメタ認知判断機能を通じて協調する, 概念的アーキテクチャフレームワークを提案する。
この機能は、決定の即応性を管理し、証拠が不完全、矛盾、あるいは運用上のリスクがある場合に、システムの自律性を動的に校正する。
分散認知理論、マルチエージェントシステム研究、そして責任あるAIガバナンスフレームワークを合成することにより、現代のセキュリティ操作が既に分散認知システムとして機能していることを実証する。
我々の貢献は、メタ認知判断を第一級システム機能として組み込むことによって、この認知構造をアーキテクチャ的に明確化し、統制可能にすることである。
セキュリティ運用センター,説明責任自律性,次世代のAI対応サイバー防御アーキテクチャの設計について論じる。
提案されたフレームワークは、サイバーセキュリティにおけるAIの焦点を、孤立した予測を最適化することから、不確実性の下で自律性を管理することに移行する。
関連論文リスト
- Interpreting Agentic Systems: Beyond Model Explanations to System-Level Accountability [0.6745502291821954]
エージェントシステムは、ゴール指向の振る舞いを持つ自律システムを構築するために、大規模言語モデルをどのように活用するかを変えてきた。
主に静的モデルのために開発された現在の解釈可能性技術は、エージェントシステムに適用する際の制限を示す。
本稿では,エージェントシステムにおける既存の解釈可能性手法の適合性と限界について検討する。
論文 参考訳(メタデータ) (2026-01-23T21:05:32Z) - The Path Ahead for Agentic AI: Challenges and Opportunities [4.52683540940001]
この章では、複雑な環境で自律的に動作するエージェントAIシステムの出現について考察する。
我々は、統計モデルからトランスフォーマーベースのシステムへのアーキテクチャの進歩を辿り、エージェントの振る舞いを可能にする能力を識別する。
既存の調査とは異なり、私たちは、言語理解から自律的な行動へのアーキテクチャの移行に注目し、デプロイ前に解決しなければならない技術的ギャップを強調します。
論文 参考訳(メタデータ) (2026-01-06T06:31:42Z) - Agentic AI for Cyber Resilience: A New Security Paradigm and Its System-Theoretic Foundations [20.297163645916157]
サイバーセキュリティは、ファンデーションモデルに基づく人工知能によって根本的に作り直されている。
この章は、予防中心のセキュリティからエージェントサイバーレジリエンスへの移行を主張する。
論文 参考訳(メタデータ) (2025-12-28T11:17:36Z) - The Social Responsibility Stack: A Control-Theoretic Architecture for Governing Socio-Technical AI [0.0]
本稿では,社会責任スタック(Social Responsibility Stack, SRS)を紹介する。
我々は、SRSが規範的目的を実行可能なエンジニアリングと運用制御にどのように変換するかを示す。
このフレームワークは倫理、制御理論、AIガバナンスを橋渡しし、説明責任、適応性、監査可能な社会技術AIシステムのための実践的な基盤を提供する。
論文 参考訳(メタデータ) (2025-12-18T18:42:16Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - A cybersecurity AI agent selection and decision support framework [0.0]
本稿では,AIエージェントアーキテクチャ,リアクティブ,認知,ハイブリッド,学習を協調する,新しい構造化された意思決定支援フレームワークを提案する。
エージェント理論と産業ガイドラインを統合することで、このフレームワークは、AIソリューションの選択とデプロイのための透過的で段階的な方法論を提供する。
論文 参考訳(メタデータ) (2025-10-02T07:38:21Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems [53.37728204835912]
既存のAIシステムは、デプロイ後も静的な手作業による構成に依存している。
近年,インタラクションデータと環境フィードバックに基づいてエージェントシステムを自動拡張するエージェント進化手法が研究されている。
この調査は、自己進化型AIエージェントの体系的な理解を研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-08-10T16:07:32Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。