論文の概要: COMPASS: The explainable agentic framework for Sovereignty, Sustainability, Compliance, and Ethics
- arxiv url: http://arxiv.org/abs/2603.11277v1
- Date: Wed, 11 Mar 2026 20:14:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.62354
- Title: COMPASS: The explainable agentic framework for Sovereignty, Sustainability, Compliance, and Ethics
- Title(参考訳): CompASS:ソブリン性、持続性、コンプライアンス、倫理に関する説明可能なエージェント・フレームワーク
- Authors: Jean-Sébastien, Dessureault, Alain-Thierry, Iliho Manzi, Soukaina, Alaoui Ismaili, Khadim, Lo, Mireille, Lalancette, Éric, Bélanger,
- Abstract要約: 本稿では,値整合型AIを実現するために設計された,新しいマルチエージェントオーケストレーションシステムを提案する。
このフレームワークは、オーケストレータと、主権、カーボン・アウェア・コンピューティング、コンプライアンス、倫理に対処する4つの専門のサブエージェントで構成されている。
LLM-as-a-judge法を用いることで、定量的スコアを割り当て、各評価次元について説明可能な正当化を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid proliferation of large language model (LLM)-based agentic systems raises critical concerns regarding digital sovereignty, environmental sustainability, regulatory compliance, and ethical alignment. Whilst existing frameworks address individual dimensions in isolation, no unified architecture systematically integrates these imperatives into the decision-making processes of autonomous agents. This paper introduces the COMPASS (Compliance and Orchestration for Multi-dimensional Principles in Autonomous Systems with Sovereignty) Framework, a novel multi-agent orchestration system designed to enforce value-aligned AI through modular, extensible governance mechanisms. The framework comprises an Orchestrator and four specialised sub-agents addressing sovereignty, carbon-aware computing, compliance, and ethics, each augmented with Retrieval-Augmented Generation (RAG) to ground evaluations in verified, context-specific documents. By employing an LLM-as-a-judge methodology, the system assigns quantitative scores and generates explainable justifications for each assessment dimension, enabling real-time arbitration of conflicting objectives. We validate the architecture through automated evaluation, demonstrating that RAG integration significantly enhances semantic coherence and mitigates the hallucination risks. Our results indicate that the framework's composition-based design facilitates seamless integration into diverse application domains whilst preserving interpretability and traceability.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づくエージェントシステムの急速な普及は、デジタル主権、環境持続可能性、規制遵守、倫理的整合性に関する重要な懸念を提起する。
既存のフレームワークは個別の次元を個別に扱うが、これらの命令を自律エージェントの意思決定プロセスに体系的に統合する統一アーキテクチャは存在しない。
本稿では,多次元自律システムにおける多次元原理のコンプライアンスとオーケストレーション(Compliance and Orchestration for Multi-dimensional Principles in Autonomous Systems with Sovereignty)フレームワークについて紹介する。
このフレームワークは、オーケストレータと、主権、カーボン・アウェア・コンピューティング、コンプライアンス、倫理に対処する4つの専門化されたサブエージェントから構成され、それぞれが検索・拡張生成(RAG)で強化され、検証されたコンテキスト固有の文書で評価の基礎となる。
LLM-as-a-judge法を用いることで、定量的スコアを割り当て、各評価次元に対する説明可能な正当化を生成し、矛盾する目的のリアルタイム仲裁を可能にする。
自動評価によりアーキテクチャを検証し,RAG統合が意味的コヒーレンスを著しく向上し,幻覚リスクを軽減することを示す。
この結果から,フレームワークのコンポジションベース設計は,解釈可能性とトレーサビリティを保ちながら,多様なアプリケーションドメインへのシームレスな統合を促進することが示唆された。
関連論文リスト
- A Survey of Reasoning in Autonomous Driving Systems: Open Challenges and Emerging Paradigms [49.66022971508878]
私たちは、推論はモジュラーコンポーネントからシステムの認知コアに高めるべきだと論じています。
応答性推論のトレードオフやソーシャルゲーム推論など,7つの中核的推論課題を導出し,体系化する。
我々は,LLMに基づく推論と,ミリ秒スケールで安全クリティカルな車両制御の要求との間の,高レイテンシ,熟考的特性の根本的かつ未解決な緊張関係を同定する。
論文 参考訳(メタデータ) (2026-03-11T07:40:53Z) - SoK: Agentic Retrieval-Augmented Generation (RAG): Taxonomy, Architectures, Evaluation, and Research Directions [0.0]
本稿では、これらの自律システムを理解するための最初の統一されたフレームワークを提供する。
エージェント検索生成ループを有限水平部分観測可能なマルコフ決定過程として定式化する。
本研究は,幻覚伝播の複合化,メモリ中毒,検索ミスアライメント,カスケードツール実行脆弱性など,自律ループに固有の重篤なシステムリスクを同定する。
論文 参考訳(メタデータ) (2026-03-07T23:38:57Z) - Position: General Alignment Has Hit a Ceiling; Edge Alignment Must Be Taken Seriously [51.03213216886717]
我々は、一般的なアライメントの支配的なパラダイムが、矛盾する値の設定において構造的な天井に達するという立場を取る。
エッジアライメント(Edge Alignment)は,多次元の値構造を保持するシステムにおいて,異なるアプローチである。
論文 参考訳(メタデータ) (2026-02-23T16:51:43Z) - Agentic AI for Cybersecurity: A Meta-Cognitive Architecture for Governable Autonomy [0.0]
本稿では,サイバーセキュリティのオーケストレーションはエージェント型マルチエージェント認知システムとして再認識されるべきである,と論じる。
本稿では,特定・仮説形成・文脈解釈・説明・ガバナンスに責任を負う異種AIエージェントを,メタ認知判断機能を通じて協調する概念的枠組みを提案する。
我々の貢献は、メタ認知判断を第一級システム機能として組み込むことによって、この認知構造をアーキテクチャ的に明確化し、統制可能にすることである。
論文 参考訳(メタデータ) (2026-02-12T12:52:49Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - AI-Supported Platform for System Monitoring and Decision-Making in Nuclear Waste Management with Large Language Models [1.6795461001108096]
本稿では,大規模言語モデル(LLM)と文書検索機構を統合したマルチエージェント検索・拡張生成(RAG)システムを提案する。
このシステムは、規制決定が事実上基礎を保ち、進化する規制フレームワークに動的に適応することを保証する。
論文 参考訳(メタデータ) (2025-05-27T20:29:53Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。