論文の概要: Modal Logical Neural Networks
- arxiv url: http://arxiv.org/abs/2512.03491v1
- Date: Wed, 03 Dec 2025 06:38:29 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:05:47.905264
- Title: Modal Logical Neural Networks
- Title(参考訳): モーダル論理型ニューラルネットワーク
- Authors: Antonin Sulc,
- Abstract要約: 本稿では、ディープラーニングとモーダル論理の形式的意味論を統合するニューロシンボリック・フレームワークである、モーダル論理ニューラルネットワーク(MLNN)を提案する。
本稿では,アクセシビリティの強化や学習が,基礎となるタスクアーキテクチャを変更することなく,論理的一貫性と解釈可能性を高める方法を示す。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License:
- Abstract: We propose Modal Logical Neural Networks (MLNNs), a neurosymbolic framework that integrates deep learning with the formal semantics of modal logic, enabling reasoning about necessity and possibility. Drawing on Kripke semantics, we introduce specialized neurons for the modal operators $\Box$ and $\Diamond$ that operate over a set of possible worlds, enabling the framework to act as a differentiable ``logical guardrail.'' The architecture is highly flexible: the accessibility relation between worlds can either be fixed by the user to enforce known rules or, as an inductive feature, be parameterized by a neural network. This allows the model to optionally learn the relational structure of a logical system from data while simultaneously performing deductive reasoning within that structure. This versatile construction is designed for flexibility. The entire framework is differentiable from end to end, with learning driven by minimizing a logical contradiction loss. This not only makes the system resilient to inconsistent knowledge but also enables it to learn nonlinear relationships that can help define the logic of a problem space. We illustrate MLNNs on four case studies: grammatical guardrailing, axiomatic detection of the unknown, multi-agent epistemic trust, and detecting constructive deception in natural language negotiation. These experiments demonstrate how enforcing or learning accessibility can increase logical consistency and interpretability without changing the underlying task architecture.
- Abstract(参考訳): モーダル論理ニューラルネットワーク(MLNN)は,ディープラーニングとモーダル論理の形式的意味論を統合し,必要と可能性の推論を可能にする,ニューロシンボリックなフレームワークである。
Kripke のセマンティクスに基づいて、可能な世界のセットで動作するモダル演算子 $\Box$ と $\Diamond$ の特殊なニューロンを導入し、フレームワークを「論理的ガードレール」として機能させる。
世界のアクセシビリティの関係は、ユーザが既知のルールを強制するために修正するか、帰納的機能としてニューラルネットワークによってパラメータ化される。
これにより、モデルがデータから論理システムの関係構造を任意に学習し、同時にその構造内で帰納的推論を実行することができる。
この汎用的な構造は柔軟性のために設計されている。
フレームワーク全体が端から端まで微分可能であり、論理的な矛盾損失を最小限に抑えて学習する。
これにより、システムは一貫性のない知識に耐性を持つだけでなく、問題空間の論理を定義するのに役立つ非線形関係を学習することができる。
MLNNの4つのケーススタディについて,文法的ガードレーリング,未知のマルチエージェント・エピステマティック・トラストの公理的検出,自然言語交渉における建設的騙しの検出について解説する。
これらの実験は、アクセシビリティの強化や学習が、基礎となるタスクアーキテクチャを変更することなく、論理的一貫性と解釈可能性を高めることを実証している。
関連論文リスト
- Categorical Construction of Logically Verifiable Neural Architectures [0.0]
ニューラルネットワークはパターン認識に優れるが、信頼できる論理的推論に苦しむ。
我々は、証明可能な論理的保証を持つニューラルネットワークを体系的に構築する分類的枠組みを開発する。
このフレームワークは信頼できるAIシステムのための数学的基盤を提供し、定理証明、形式的検証、そして検証可能な論理的振る舞いを必要とする安全クリティカルな推論タスクへの応用を提供する。
論文 参考訳(メタデータ) (2025-08-02T04:30:05Z) - Standard Neural Computation Alone Is Insufficient for Logical Intelligence [3.230778132936486]
論理的推論を統合するためには、標準的なニューラルネットワーク層を根本的に再考する必要がある、と我々は主張する。
論理演算の微分可能な近似を組み込んだ論理ニューラルネットワーク(LNU)モジュラーコンポーネントを提唱する。
論文 参考訳(メタデータ) (2025-02-04T09:07:45Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Interpretable Multimodal Misinformation Detection with Logic Reasoning [40.851213962307206]
本稿では,多モーダル誤情報検出のための論理モデルを提案する。
本稿では,意味のある論理節の自動生成と評価を容易にするニューラル表現を用いた記号論理要素のパラメータ化を行う。
3つの公開データセットの結果は、我々のモデルの有効性と汎用性を示している。
論文 参考訳(メタデータ) (2023-05-10T08:16:36Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。