論文の概要: Differentiable Modal Logic for Multi-Agent Diagnosis, Orchestration and Communication
- arxiv url: http://arxiv.org/abs/2602.12083v1
- Date: Thu, 12 Feb 2026 15:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.899426
- Title: Differentiable Modal Logic for Multi-Agent Diagnosis, Orchestration and Communication
- Title(参考訳): マルチエージェント診断・オーケストレーション・コミュニケーションのための微分型モーダル論理
- Authors: Antonin Sulc,
- Abstract要約: このチュートリアルは、モーダル論理ニューラルネットワーク(MLNN)を用いて実装された微分可能モーダル論理(DML)を実証する。
筆者らは, 疫学(信頼する者), 時間的(障害を引き起こす場合), うつ病(何が許されるか), 不安(エージェントの信頼をどう解釈するか)の4つのモードを通じて, 統合された神経象徴的デバッグの枠組みを提示する。
ニューロシンボリック・コミュニティにおける重要な貢献:(1)信頼と因果関係が明示的なパラメータであり不透明な埋め込みではない解釈可能な学習構造、(2)スパースデータによる学習をガイドする識別可能な公理による知識注入、(4)モニタリング、アクティブコントロール、コミュニケーションのための実践的展開パターン
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As multi-agent AI systems evolve from simple chatbots to autonomous swarms, debugging semantic failures requires reasoning about knowledge, belief, causality, and obligation, precisely what modal logic was designed to formalize. However, traditional modal logic requires manual specification of relationship structures that are unknown or dynamic in real systems. This tutorial demonstrates differentiable modal logic (DML), implemented via Modal Logical Neural Networks (MLNNs), enabling systems to learn trust networks, causal chains, and regulatory boundaries from behavioral data alone. We present a unified neurosymbolic debugging framework through four modalities: epistemic (who to trust), temporal (when events cause failures), deontic (what actions are permitted), and doxastic (how to interpret agent confidence). Each modality is demonstrated on concrete multi-agent scenarios, from discovering deceptive alliances in diplomacy games to detecting LLM hallucinations, with complete implementations showing how logical contradictions become learnable optimization objectives. Key contributions for the neurosymbolic community: (1) interpretable learned structures where trust and causality are explicit parameters, not opaque embeddings; (2) knowledge injection via differentiable axioms that guide learning with sparse data (3) compositional multi-modal reasoning that combines epistemic, temporal, and deontic constraints; and (4) practical deployment patterns for monitoring, active control and communication of multi-agent systems. All code provided as executable Jupyter notebooks.
- Abstract(参考訳): マルチエージェントAIシステムが単純なチャットボットから自律的なSwarmへと進化するにつれて、セマンティック障害のデバッグには、知識、信念、因果性、義務に関する推論が必要である。
しかし、伝統的なモーダル論理は、実際のシステムでは未知あるいは動的である関係構造を手動で記述する必要がある。
このチュートリアルでは、Modal Logical Neural Networks (MLNN) を通じて実装された差別化可能なモーダル論理(DML)を紹介し、システムは行動データのみから信頼ネットワーク、因果連鎖、規制境界を学習することができる。
本報告では, 先天的(信頼する者), 時的(障害を引き起こす場合), デオン的(行動が許される場合), ドクサス的(エージェント信頼をどう解釈するか)の4つのモダリティを通じて, 統合された神経象徴的デバッグの枠組みを提示する。
それぞれのモダリティは、外交ゲームにおける偽りのアライアンス発見からLLM幻覚の検出に至るまで、具体的なマルチエージェントシナリオで実証され、論理的矛盾が学習可能な最適化目標となることの完全な実装が示される。
1)信頼と因果関係が明示的なパラメータであり不透明な埋め込みではない解釈可能な学習構造,(2)スパースデータによる学習を導く識別可能な公理による知識注入,(3)てんかん,時間的,非音的制約を組み合わせた構成的マルチモーダル推論,(4)マルチエージェントシステムのモニタリング,アクティブコントロール,コミュニケーションのための実践的展開パターン。
実行可能なJupyterノートブックとして提供されるすべてのコード。
関連論文リスト
- Modal Logical Neural Networks [0.15229257192293197]
本稿では、ディープラーニングとモーダル論理の形式的意味論を統合するニューロシンボリック・フレームワークである、モーダル論理ニューラルネットワーク(MLNN)を提案する。
本稿では,アクセシビリティの強化や学習が,基礎となるタスクアーキテクチャを変更することなく,論理的一貫性と解釈可能性を高める方法を示す。
論文 参考訳(メタデータ) (2025-12-03T06:38:29Z) - Agentic System with Modal Logic for Autonomous Diagnostics [0.3437656066916039]
エージェント推論の構造、忠実性、論理的一貫性のスケーリングは、AI研究の重要かつ過小評価されている次元である、と我々は主張する。
本稿では,個々のエージェントの信念状態がKripkeモデルとして正式に表現される,ニューロシンボリックなマルチエージェントアーキテクチャを提案する。
本研究は,不可変でドメイン固有な知識を用いて,適切な,信頼性,説明可能な診断に不可欠な論理的制約として符号化された情報的根本原因診断を行う。
論文 参考訳(メタデータ) (2025-09-15T14:03:06Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Interpretable Multimodal Misinformation Detection with Logic Reasoning [40.851213962307206]
本稿では,多モーダル誤情報検出のための論理モデルを提案する。
本稿では,意味のある論理節の自動生成と評価を容易にするニューラル表現を用いた記号論理要素のパラメータ化を行う。
3つの公開データセットの結果は、我々のモデルの有効性と汎用性を示している。
論文 参考訳(メタデータ) (2023-05-10T08:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。