論文の概要: Breaking Up with Normatively Monolithic Agency with GRACE: A Reason-Based Neuro-Symbolic Architecture for Safe and Ethical AI Alignment
- arxiv url: http://arxiv.org/abs/2601.10520v1
- Date: Thu, 15 Jan 2026 15:47:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.201594
- Title: Breaking Up with Normatively Monolithic Agency with GRACE: A Reason-Based Neuro-Symbolic Architecture for Safe and Ethical AI Alignment
- Title(参考訳): GRACEによるモノリシックエージェンシーのブレークアップ: 安全で倫理的なAIアライメントのための推論に基づくニューロシンボリックアーキテクチャ
- Authors: Felix Jahn, Yannic Muskalla, Lisa Dargasz, Patrick Schramowski, Kevin Baum,
- Abstract要約: ニューロシンボリックな理由に基づく封じ込めアーキテクチャ、GRACE(Reason-Aligned ContainmEnt)の知事について紹介する。
GRACEは、道具的な意思決定から規範的推論を分離し、事実上あらゆる設計のAIエージェントを含むことができる。
MMは、意味論的論理のセマンティック基盤を提供する理性に基づく形式主義を用いており、解釈可能性、競合性、正当性を実現している。
- 参考スコア(独自算出の注目度): 7.776436480034601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI agents become increasingly autonomous, widely deployed in consequential contexts, and efficacious in bringing about real-world impacts, ensuring that their decisions are not only instrumentally effective but also normatively aligned has become critical. We introduce a neuro-symbolic reason-based containment architecture, Governor for Reason-Aligned ContainmEnt (GRACE), that decouples normative reasoning from instrumental decision-making and can contain AI agents of virtually any design. GRACE restructures decision-making into three modules: a Moral Module (MM) that determines permissible macro actions via deontic logic-based reasoning; a Decision-Making Module (DMM) that encapsulates the target agent while selecting instrumentally optimal primitive actions in accordance with derived macro actions; and a Guard that monitors and enforces moral compliance. The MM uses a reason-based formalism providing a semantic foundation for deontic logic, enabling interpretability, contestability, and justifiability. Its symbolic representation enriches the DMM's informational context and supports formal verification and statistical guarantees of alignment enforced by the Guard. We demonstrate GRACE on an example of a LLM therapy assistant, showing how it enables stakeholders to understand, contest, and refine agent behavior.
- Abstract(参考訳): AIエージェントがますます自律的になり、連続的なコンテキストに広くデプロイされ、現実世界のインパクトをもたらす効果が増すにつれて、彼らの決定が機器的に有効であるだけでなく、規範的に一致していることも重要になっている。
本稿では,標準的推論を道具的意思決定から切り離し,事実上あらゆる設計のAIエージェントを収容できる,ニューロシンボリックな理由に基づく封じ込めアーキテクチャ,GRACE(Reason-Aligned ContainmEnt)を導入する。
GRACEは、決定を3つのモジュールに再構成する: 決定的論理に基づく推論を通じて許容可能なマクロアクションを決定するモラルモジュール(MM)、目的エージェントをカプセル化しながら、派生したマクロアクションに従ってインストゥルメンタルに最適なプリミティブアクションを選択する決定-タスクモジュール(DMM)、道徳的コンプライアンスを監視・実施するガード。
MMは、意味論的論理のセマンティック基盤を提供する理性に基づく形式主義を用いており、解釈可能性、競合性、正当性を実現している。
その象徴的な表現は、DMMの情報コンテキストを豊かにし、公式な検証とガードが実施するアライメントの統計的保証をサポートする。
LLMセラピーアシスタントの例でGRACEを実演し、利害関係者がエージェントの動作を理解し、議論し、洗練する方法を示した。
関連論文リスト
- Towards Trustworthy Legal AI through LLM Agents and Formal Reasoning [11.842866992683158]
既存のLLMベースのシステムは、表面レベルのテキスト解析に優れるが、原理的合理性に必要な保証は欠如している。
本稿では,LSM エージェントと SMT ソルバ支援法則を組み合わせた新しいフレームワーク L4M を紹介する。
我々のシステムは、GPT-o4-mini、DeepSeek-V3、Claude 4、最先端の法務AI証明など、先進的なLCMを超えている。
論文 参考訳(メタデータ) (2025-11-26T04:05:06Z) - Normative active inference: A numerical proof of principle for a computational and economic legal analytic approach to AI governance [0.6267988254367711]
本稿では,AIエージェントの行動に法的規範がどう影響するかを計算学的に考察する。
我々は,エージェントに意図的な制御システムを与える設計による規制によって,合法的で規範に敏感なAI行動が達成可能であることを提案する。
我々は、文脈依存の嗜好が自律エージェントの安全メカニズムとしてどのように機能するかを議論することで結論付けた。
論文 参考訳(メタデータ) (2025-11-24T17:30:51Z) - Bridging Symbolic Control and Neural Reasoning in LLM Agents: The Structured Cognitive Loop [0.0]
エージェント認知を,検索,認知,制御,行動,記憶の5段階に分けたモジュール型アーキテクチャであるStructured Cognitive Loop (SCL)を導入する。
SCLの中核であるSoft Symbolic Controlは、確率的推論にシンボリック制約を適用する適応的なガバナンスメカニズムである。
我々は,ライブGPT-4oによる旅行計画エージェントとともに,R-CCAMループアーキテクチャを実演する完全なオープンソース実装を提供する。
論文 参考訳(メタデータ) (2025-11-21T05:19:34Z) - Agentic AI Reasoning for Mobile Edge General Intelligence: Fundamentals, Approaches, and Directions [74.35421055079655]
大規模言語モデル(LLM)は、強力な推論と自律的な意思決定能力を備えたエージェント人工知能(AI)の出現を可能にした。
Mobile Edge General Intelligence (MEGI)は、リアルタイムでプライバシ保護の推論をネットワークエッジにもたらす。
本稿では,MEGIにおけるLLM推論の効率的な展開のための共同最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-27T10:53:48Z) - How Good are Foundation Models in Step-by-Step Embodied Reasoning? [79.15268080287505]
身体的エージェントは、安全で空間的に整合性があり、文脈に根ざした決定をしなければならない。
大規模マルチモーダルモデルの最近の進歩は、視覚的理解と言語生成において有望な能力を示している。
私たちのベンチマークには、10のタスクと8のエボディメントにまたがる詳細なステップバイステップ推論を備えた1.1k以上のサンプルが含まれています。
論文 参考訳(メタデータ) (2025-09-18T17:56:30Z) - From "Aha Moments" to Controllable Thinking: Toward Meta-Cognitive Reasoning in Large Reasoning Models via Decoupled Reasoning and Control [11.321315058502215]
大規模推論モデル(LRM)は、ステップバイステップの推論、リフレクション、バックトラッキングなどの認知行動を自発的に示すことで、複雑な推論の潜在能力を示した。
しかし、そのような創発的行動は規制されず、制御されていないままであり、しばしば過度に考え直され、モデルが信頼できる結論に達した後も冗長な推論内容を生成し続ける。
現在のモデルは、いつ継続するか、バックトラックするか、終了するかを決定するために、彼らの推論プロセスを監視し、適応的に管理できない。
我々はメタ認知推論フレームワーク(MERA)を提案する。
論文 参考訳(メタデータ) (2025-08-06T13:59:17Z) - DICE: Dynamic In-Context Example Selection in LLM Agents via Efficient Knowledge Transfer [50.64531021352504]
インコンテキスト学習(ICL)によって強化された大規模言語モデルベースエージェントは、複雑な推論やツール使用タスクにおいて強力な能力を示している。
既存のアプローチは典型的には、エージェントやマルチステップの設定を含むサンプルの選択に依存している。
推論の各ステップにおいて最も関連性の高い実演を選択できるエージェントタスクのための理論的に基礎付けられた ICL フレームワーク DICE を提案する。
論文 参考訳(メタデータ) (2025-07-31T13:42:14Z) - Explainable Rule Application via Structured Prompting: A Neural-Symbolic Approach [0.0]
大規模言語モデル(LLM)は複雑な推論タスクでは優れているが、一貫性のあるルールアプリケーション、例外処理、説明可能性に苦慮している。
本稿では、推論を3つの検証可能なステップ(エンティティ識別、プロパティ抽出、シンボリックルール適用)に分解する構造化プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T14:14:01Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - DecisionFlow: Advancing Large Language Model as Principled Decision Maker [49.088778182807395]
DecisionFlowは、モデルにアクション、属性、制約の構造化された表現を推論するように誘導する、新しい決定モデリングフレームワークである。
プロンプトから直接回答を予測するのではなく、DecisionFlowは意味論的に根拠のある決定空間を構築し、潜在ユーティリティ関数を推論する。
実験の結果,DecisionFlowの精度は,強いプロンプトベースラインよりも最大30%向上した。
論文 参考訳(メタデータ) (2025-05-27T16:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。