論文の概要: Continuous Modal Logical Neural Networks: Modal Reasoning via Stochastic Accessibility
- arxiv url: http://arxiv.org/abs/2603.04019v1
- Date: Wed, 04 Mar 2026 12:55:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.309771
- Title: Continuous Modal Logical Neural Networks: Modal Reasoning via Stochastic Accessibility
- Title(参考訳): 連続モーダル論理ニューラルネットワーク:確率的アクセシビリティによるモーダル推論
- Authors: Antonin Sulc,
- Abstract要約: 離散的なクリプキ構造からモーダル論理的推論,時間的,ドクサスティック,デオン的推論を解き放つパラダイムを提案する。
重要なインスタンス化は Logic-Informed Neural Networks (LINN) である。
LINNは、トレーニング損失に直接モーダル論理式を埋め込んで、ニューラルネットワークを誘導し、所定の論理的性質と構造的に整合したソリューションを生成する。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Fluid Logic, a paradigm in which modal logical reasoning, temporal, epistemic, doxastic, deontic, is lifted from discrete Kripke structures to continuous manifolds via Neural Stochastic Differential Equations (Neural SDEs). Each type of modal operator is backed by a dedicated Neural SDE, and nested formulas compose these SDEs in a single differentiable graph. A key instantiation is Logic-Informed Neural Networks (LINNs): analogous to Physics-Informed Neural Networks (PINNs), LINNs embed modal logical formulas such as ($\Box$ bounded) and ($\Diamond$ visits\_lobe) directly into the training loss, guiding neural networks to produce solutions that are structurally consistent with prescribed logical properties, without requiring knowledge of the governing equations. The resulting framework, Continuous Modal Logical Neural Networks (CMLNNs), yields several key properties: (i) stochastic diffusion prevents quantifier collapse ($\Box$ and $\Diamond$ differ), unlike deterministic ODEs; (ii) modal operators are entropic risk measures, sound with respect to risk-based semantics with explicit Monte Carlo concentration guarantees; (iii)SDE-induced accessibility provides structural correspondence with classical modal axioms; (iv) parameterizing accessibility through dynamics reduces memory from quadratic in world count to linear in parameters. Three case studies demonstrate that Fluid Logic and LINNs can guide neural networks to produce consistent solutions across diverse domains: epistemic/doxastic logic (multi-robot hallucination detection), temporal logic (recovering the Lorenz attractor geometry from logical constraints alone), and deontic logic (learning safe confinement dynamics from a logical specification).
- Abstract(参考訳): 本研究では、離散クリプキ構造からニューラル確率微分方程式(Neural Stochastic Differential Equations,Neural SDEs)を通して連続多様体へモーダル論理的推論、時間的、エピステミック、ドクサスティック、デオンティックの解を求めるパラダイムであるFluid Logicを提案する。
それぞれのモーダル作用素は専用のニューラルSDEによってバックアップされ、ネスト式はこれらのSDEを1つの微分可能なグラフで構成する。
重要なインスタンス化は Logic-Informed Neural Networks (LINNs) で、物理インフォームドニューラルネットワーク (PINNs) に類似し、LINN は ($\Box$ bounded) や$\Diamond$ visits\_lobe) のような様相論理式をトレーニング損失に直接埋め込む。
結果として得られたフレームワークであるContinuous Modal Logical Neural Networks (CMLNN)は、いくつかの重要な特性を生んでいる。
(i)確率拡散は、決定論的ODEとは異なり、量化子崩壊(\Box$と$Diamond$の差)を防ぐ。
(ii)モダル作用素は,明示的なモンテカルロ濃度保証を伴うリスクベースの意味論に関して健全なエントロピー的リスク測度である。
三)SDEによるアクセシビリティは、古典的モーダル公理と構造的対応を提供する。
(4) ダイナミックスによるアクセシビリティのパラメータ化は、世界の2次数からパラメータの線形化へとメモリを減少させる。
3つのケーススタディは、Fluid LogicとLINNがニューラルネットワークを誘導して、エピステミック/ドキサスティック論理(マルチボット幻覚検出)、時間論理(論理的制約のみからローレンツ誘引子幾何学を復元)、デオン論理(論理的仕様から安全な閉じ込め力学を学ぶ)など、さまざまな領域にわたる一貫した解を生成することを実証している。
関連論文リスト
- Differentiable Modal Logic for Multi-Agent Diagnosis, Orchestration and Communication [0.15229257192293197]
このチュートリアルは、モーダル論理ニューラルネットワーク(MLNN)を用いて実装された微分可能モーダル論理(DML)を実証する。
筆者らは, 疫学(信頼する者), 時間的(障害を引き起こす場合), うつ病(何が許されるか), 不安(エージェントの信頼をどう解釈するか)の4つのモードを通じて, 統合された神経象徴的デバッグの枠組みを提示する。
ニューロシンボリック・コミュニティにおける重要な貢献:(1)信頼と因果関係が明示的なパラメータであり不透明な埋め込みではない解釈可能な学習構造、(2)スパースデータによる学習をガイドする識別可能な公理による知識注入、(4)モニタリング、アクティブコントロール、コミュニケーションのための実践的展開パターン
論文 参考訳(メタデータ) (2026-02-12T15:39:18Z) - Modal Logical Neural Networks [0.15229257192293197]
本稿では、ディープラーニングとモーダル論理の形式的意味論を統合するニューロシンボリック・フレームワークである、モーダル論理ニューラルネットワーク(MLNN)を提案する。
本稿では,アクセシビリティの強化や学習が,基礎となるタスクアーキテクチャを変更することなく,論理的一貫性と解釈可能性を高める方法を示す。
論文 参考訳(メタデータ) (2025-12-03T06:38:29Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Standard Neural Computation Alone Is Insufficient for Logical Intelligence [3.230778132936486]
論理的推論を統合するためには、標準的なニューラルネットワーク層を根本的に再考する必要がある、と我々は主張する。
論理演算の微分可能な近似を組み込んだ論理ニューラルネットワーク(LNU)モジュラーコンポーネントを提唱する。
論文 参考訳(メタデータ) (2025-02-04T09:07:45Z) - A Neuro-Symbolic Approach to Multi-Agent RL for Interpretability and
Probabilistic Decision Making [42.503612515214044]
マルチエージェント強化学習(MARL)は、複数のエージェントが共存し、共有リソースと競合するシステムにおいて、実行時の意思決定に適している。
ディープラーニングベースの一般的なMARLソリューションを実世界の問題に適用することは、解釈可能性、サンプル効率、部分観測可能性などの問題に悩まされる。
本稿では,ニューロシンボリック手法を用いて,意思決定を分散協調的MARLエージェントで処理するイベント駆動型定式化を提案する。
論文 参考訳(メタデータ) (2024-02-21T00:16:08Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Generalized Neural Closure Models with Interpretability [28.269731698116257]
我々は、統合された神経部分遅延微分方程式の新規で汎用的な方法論を開発した。
マルコフ型および非マルコフ型ニューラルネットワーク(NN)の閉包パラメータ化を用いて, 偏微分方程式(PDE)における既存/低忠実度力学モデルを直接拡張する。
本研究では, 非線形波動, 衝撃波, 海洋酸性化モデルに基づく4つの実験セットを用いて, 新しい一般化ニューラルクロージャモデル(gnCMs)の枠組みを実証する。
論文 参考訳(メタデータ) (2023-01-15T21:57:43Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。