論文の概要: Extending Logical Neural Networks using First-Order Theories
- arxiv url: http://arxiv.org/abs/2207.02978v1
- Date: Wed, 6 Jul 2022 21:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 13:58:51.676462
- Title: Extending Logical Neural Networks using First-Order Theories
- Title(参考訳): 一階理論を用いた論理ニューラルネットワークの拡張
- Authors: Aidan Evans and Jorge Blanco
- Abstract要約: 論理ニューラルネットワークを拡張し、一階理論による等式と関数記号をサポートする。
これにより、LNNの能力は向上し、対処可能な問題の種類を大幅に増やすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logical Neural Networks (LNNs) are a type of architecture which combine a
neural network's abilities to learn and systems of formal logic's abilities to
perform symbolic reasoning. LLNs provide programmers the ability to implicitly
modify the underlying structure of the neural network via logical formulae. In
this paper, we take advantage of this abstraction to extend LNNs to support
equality and function symbols via first-order theories. This extension improves
the power of LNNs by significantly increasing the types of problems they can
tackle. As a proof of concept, we add support for the first-order theory of
equality to IBM's LNN library and demonstrate how the introduction of this
allows the LNN library to now reason about expressions without needing to make
the unique-names assumption.
- Abstract(参考訳): 論理ニューラルネットワーク(英: Logical Neural Networks、LNN)は、ニューラルネットワークの学習能力と記号推論を行う形式論理のシステムを組み合わせたアーキテクチャの一種である。
LLNは、論理式を通じてニューラルネットワークの基盤構造を暗黙的に修正する機能を提供する。
本稿では,この抽象化を利用して lnn を拡張し,一階理論による等式と関数記号をサポートする。
この拡張は、対処できる問題のタイプを大きく増やすことで、lnnのパワーを向上させる。
概念実証として、IBMのLNNライブラリに等式の一階理論のサポートを追加し、LNNライブラリの導入によって、ユニークな名前の仮定を必要とせずに式を推論できるようになったことを実証する。
関連論文リスト
- Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - A Spiking Neural Network Structure Implementing Reinforcement Learning [0.0]
本稿では,SNNの構造について述べる。
本論文で考察したSNN構造は、LIFAT(Leky Integration-and-fire neuron with adapt threshold)モデルの一般化によって記述されたスパイクニューロンを含む。
私の概念は、RLタスク特性に関する非常に一般的な仮定に基づいており、適用性に目に見える制限はありません。
論文 参考訳(メタデータ) (2022-04-09T09:08:10Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - The Logic of Graph Neural Networks [0.9355115132408681]
グラフニューラルネットワーク(gnns)は、グラフ上の機械学習問題のディープラーニングアーキテクチャである。
GNNの表現力はWeisfeiler-Lemanアルゴリズムと可変カウント論理によって正確に特徴付けられることが示されている。
論文 参考訳(メタデータ) (2021-04-29T19:23:26Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Deep Networks as Logical Circuits: Generalization and Interpretation [10.223907995092835]
本稿では、Deep Neural Networks (DNN) の離散分類マップを中間(True/False)分類器の論理的(AND/OR)組合せに階層的に分解する。
学習された内部的論理的計算は、平易な英語でDNN記述を許容する意味論的意味のあるカテゴリに対応していることを示す。
論文 参考訳(メタデータ) (2020-03-25T20:39:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。