論文の概要: Learning First-Order Rules with Differentiable Logic Program Semantics
- arxiv url: http://arxiv.org/abs/2204.13570v1
- Date: Thu, 28 Apr 2022 15:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:57:35.883126
- Title: Learning First-Order Rules with Differentiable Logic Program Semantics
- Title(参考訳): 微分論理プログラムセマンティックスを用いた一階規則の学習
- Authors: Kun Gao, Katsumi Inoue, Yongzhi Cao, Hanpin Wang
- Abstract要約: 微分型一階規則学習者(DFOL)と呼ばれる微分型帰納的論理プログラミングモデルを導入する。
DFOLは、LPの解釈可能な行列表現を探索することにより、関係事実から正しいLPを見つける。
実験結果から,DFOLは精度が高く,堅牢で,スケーラブルで,安価で微分可能なICPモデルであることが示唆された。
- 参考スコア(独自算出の注目度): 12.360002779872373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning first-order logic programs (LPs) from relational facts which yields
intuitive insights into the data is a challenging topic in neuro-symbolic
research. We introduce a novel differentiable inductive logic programming (ILP)
model, called differentiable first-order rule learner (DFOL), which finds the
correct LPs from relational facts by searching for the interpretable matrix
representations of LPs. These interpretable matrices are deemed as trainable
tensors in neural networks (NNs). The NNs are devised according to the
differentiable semantics of LPs. Specifically, we first adopt a novel
propositionalization method that transfers facts to NN-readable vector pairs
representing interpretation pairs. We replace the immediate consequence
operator with NN constraint functions consisting of algebraic operations and a
sigmoid-like activation function. We map the symbolic forward-chained format of
LPs into NN constraint functions consisting of operations between subsymbolic
vector representations of atoms. By applying gradient descent, the trained well
parameters of NNs can be decoded into precise symbolic LPs in forward-chained
logic format. We demonstrate that DFOL can perform on several standard ILP
datasets, knowledge bases, and probabilistic relation facts and outperform
several well-known differentiable ILP models. Experimental results indicate
that DFOL is a precise, robust, scalable, and computationally cheap
differentiable ILP model.
- Abstract(参考訳): データに対する直感的な洞察をもたらす関係事実から一階述語論理プログラム(LP)を学習することは、ニューロシンボリック研究において難しいトピックである。
本稿では,新たな微分型帰納的論理プログラミング(ILP)モデルである微分型一階述語規則学習器(DFOL)を導入し,LPの解釈可能な行列表現を探索することにより,関係事実から正しいLPを求める。
これらの解釈可能な行列はニューラルネットワーク(NN)のトレーニング可能なテンソルとみなされる。
NNはLPの識別可能なセマンティクスに基づいて考案される。
具体的には、まず、解釈ペアを表すNN可読ベクトル対に事実を転送する新しい命題化手法を採用する。
我々は、即時帰結演算子を代数演算とシグモイド様活性化関数からなるNN制約関数に置き換える。
我々は,LPの記号的前方鎖型フォーマットを,サブシンボリックベクトル表現間の操作からなるNN制約関数にマッピングする。
勾配降下を適用することで、トレーニング済みのNNの井戸パラメータをフォワードチェーン論理形式で正確なシンボルLPにデコードすることができる。
DFOL はいくつかの標準 ILP データセット,知識ベース,確率的関係事実上で動作し,よく知られた微分可能な ILP モデルより優れていることを示す。
実験結果から,DFOLは精度が高く,堅牢で,スケーラブルで,安価で微分可能なLPモデルであることが示唆された。
関連論文リスト
- Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - Knowledge Composition using Task Vectors with Learned Anisotropic Scaling [51.4661186662329]
本稿では,パラメータブロックと異なる学習係数を線形に組み合わせ,タスクベクトルレベルでの異方性スケーリングを実現するアルゴリズムであるaTLASを紹介する。
このような線形結合は事前学習されたモデルの低内在性を明示的に利用しており、学習可能なパラメータは数係数のみであることを示す。
本稿では,タスク算術,少数ショット認識,テスト時間適応において,教師なしあるいは教師なしの目的を用いた手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-07-03T07:54:08Z) - Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Physics-informed neural networks for operator equations with stochastic data [0.6445605125467572]
統計モーメントの計算をデータを用いた演算子方程式に考慮する。
TPINNと呼ばれるPINNは、既存のPINNコードの変更を最小限に抑えて、誘導テンソル演算子方程式を解くことができる。
本稿では,バニラとマルチアウトプットTPINNという2種類のアーキテクチャを提案し,その利点と限界について検討する。
論文 参考訳(メタデータ) (2022-11-15T20:52:01Z) - Assessing the Unitary RNN as an End-to-End Compositional Model of Syntax [0.0]
LSTMとユニタリ進化リカレントニューラルネットワーク(URN)の両方が,2種類の構文パターンの精度を高めることができることを示す。
論文 参考訳(メタデータ) (2022-08-11T09:30:49Z) - PROTOtypical Logic Tensor Networks (PROTO-LTN) for Zero Shot Learning [2.236663830879273]
論理ネットワーク(英: Logic Networks, LTN)は、ディープニューラルネットワークに根ざした微分可能な一階述語論理に基づくニューロシンボリックシステムである。
ここでは、ほとんどの意味的画像解釈タスクをエンコードする基本となるsubsumptionまたはtextttisOfClass述語に焦点を当てる。
本稿では,オブジェクト埋め込みと対応するクラスプロトタイプ間の距離の関数を真理レベルとする,共通のtextttisOfClass述語を提案する。
論文 参考訳(メタデータ) (2022-06-26T18:34:07Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Deep learning with transfer functions: new applications in system
identification [0.0]
本稿では,自動微分計算のためのよく定義された効率的なバックプロパゲーション挙動を付与した線形動的作用素を提案する。
このオペレータは、線形転送関数と他の微分可能なユニットを含む構造化ネットワークのエンドツーエンドトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-20T08:58:55Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。