論文の概要: From Neural Networks to Logical Theories: The Correspondence between Fibring Modal Logics and Fibring Neural Networks
- arxiv url: http://arxiv.org/abs/2509.23912v1
- Date: Sun, 28 Sep 2025 14:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.528063
- Title: From Neural Networks to Logical Theories: The Correspondence between Fibring Modal Logics and Fibring Neural Networks
- Title(参考訳): ニューラルネットワークから論理理論へ:フィブリングモーダル論理とフィブリングニューラルネットワークの対応
- Authors: Ouns El Harzli, Bernardo Cuenca Grau, Artur d'Avila Garcez, Ian Horrocks, Tarek R. Besold,
- Abstract要約: モーダル論理のフィブリング(英: Fibring of modal logics)は、モーダル論理の可算族を単一のフィブリング言語に結合するための、十分に確立された形式主義である。
ニューラルネットワークのファイブリングは、ニューラルネットワークにおける学習と推論を組み合わせるためのニューロシンボリックフレームワークとして導入された。
- 参考スコア(独自算出の注目度): 17.474679381815026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fibring of modal logics is a well-established formalism for combining countable families of modal logics into a single fibred language with common semantics, characterized by fibred models. Inspired by this formalism, fibring of neural networks was introduced as a neurosymbolic framework for combining learning and reasoning in neural networks. Fibring of neural networks uses the (pre-)activations of a trained network to evaluate a fibring function computing the weights of another network whose outputs are injected back into the original network. However, the exact correspondence between fibring of neural networks and fibring of modal logics was never formally established. In this paper, we close this gap by formalizing the idea of fibred models \emph{compatible} with fibred neural networks. Using this correspondence, we then derive non-uniform logical expressiveness results for Graph Neural Networks (GNNs), Graph Attention Networks (GATs) and Transformer encoders. Longer-term, the goal of this paper is to open the way for the use of fibring as a formalism for interpreting the logical theories learnt by neural networks with the tools of computational logic.
- Abstract(参考訳): モーダル論理のフィブリング(英: Fibring of modal logics)は、モーダル論理の可算族を単一のフィブレッド言語と共通のセマンティクスを持つ単一のフィブレッド言語に結合するための、確立された形式主義である。
このフォーマリズムにインスパイアされたニューラルネットワークのフィブリングは、ニューラルネットワークにおける学習と推論を組み合わせるためのニューロシンボリックフレームワークとして導入された。
ニューラルネットワークのフィブリングは、トレーニングされたネットワークの(事前の)アクティベーションを使用して、元のネットワークに出力が注入された別のネットワークの重みを計算したフィブリング関数を評価する。
しかし、ニューラルネットワークのフィブリングとモーダル論理のフィブリングの正確な対応は公式には確立されなかった。
本稿では、このギャップを、フィブ付きニューラルネットワークによるフィブ付きモデル \emph{compatible} の考え方を定式化することによって埋める。
この対応を用いて、グラフニューラルネットワーク(GNN)、グラフ注意ネットワーク(GAT)、トランスフォーマーエンコーダの非一様論理表現性を導出する。
本研究の目的は、ニューラルネットワークが学習した論理理論を計算論理のツールで解釈するために、フィブリングを形式主義として利用する方法を開くことである。
関連論文リスト
- Dense Neural Networks are not Universal Approximators [53.27010448621372]
ニューラルネットワークは任意の連続関数の普遍性を持たないことを示す。
ReLUニューラルネットワークは、重みと入出力次元の自然な制約を受ける。
論文 参考訳(メタデータ) (2026-02-07T16:52:38Z) - Lecture Notes on Verifying Graph Neural Networks [10.812772606528172]
まず、グラフニューラルネットワークと一階述語論理や次数修飾論理などの論理との接続を思い出す。
次に、グラフニューラルネットワークの検証タスクを解決するために、線形不等式に数えるモーダル論理を提案する。
本稿では,その論理の満足度問題に対するアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-10-13T16:57:20Z) - Neural Logic Networks for Interpretable Classification [3.9023554886892438]
我々は解釈可能な構造を持つニューラルネットワークを開発する。
我々は、観測されていないデータを考慮したNOT演算とバイアスでこれらのネットワークを一般化する。
本手法はブールネットワーク発見における最先端の手法を改良し,関連性のある解釈可能なルールを学習することができる。
論文 参考訳(メタデータ) (2025-08-11T16:49:56Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Conditional computation in neural networks: principles and research trends [48.14569369912931]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - Web Neural Network with Complete DiGraphs [8.2727500676707]
現在のニューラルネットワークは、神経細胞、畳み込み、再発などの脳構造を曖昧に模倣する構造を持っている。
本稿では、ニューロン接続にサイクルを導入し、他のネットワーク層でよく見られるシーケンシャルな性質を除去することにより、新たな構造特性を付加する。
さらに、モデルには、ニューラルネットワークにインスパイアされた連続的な入力と出力があり、ネットワークは最終結果を返すのではなく、分類のプロセスを学ぶことができる。
論文 参考訳(メタデータ) (2024-01-07T05:12:10Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Interpretable Fault Diagnosis of Rolling Element Bearings with Temporal
Logic Neural Network [11.830457329372283]
本稿では、時間論理ニューラルネットワーク(TLNN)と呼ばれる新しいニューラルネットワーク構造を提案する。
TLNNは、従来のニューロンネットワークの優れた特性を保ちながら、形式言語で自身を形式的に解釈する。
論文 参考訳(メタデータ) (2022-04-15T11:54:30Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。