論文の概要: Learning First-Order Rules with Differentiable Logic Program Semantics
- arxiv url: http://arxiv.org/abs/2204.13570v1
- Date: Thu, 28 Apr 2022 15:33:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:57:35.883126
- Title: Learning First-Order Rules with Differentiable Logic Program Semantics
- Title(参考訳): 微分論理プログラムセマンティックスを用いた一階規則の学習
- Authors: Kun Gao, Katsumi Inoue, Yongzhi Cao, Hanpin Wang
- Abstract要約: 微分型一階規則学習者(DFOL)と呼ばれる微分型帰納的論理プログラミングモデルを導入する。
DFOLは、LPの解釈可能な行列表現を探索することにより、関係事実から正しいLPを見つける。
実験結果から,DFOLは精度が高く,堅牢で,スケーラブルで,安価で微分可能なICPモデルであることが示唆された。
- 参考スコア(独自算出の注目度): 12.360002779872373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning first-order logic programs (LPs) from relational facts which yields
intuitive insights into the data is a challenging topic in neuro-symbolic
research. We introduce a novel differentiable inductive logic programming (ILP)
model, called differentiable first-order rule learner (DFOL), which finds the
correct LPs from relational facts by searching for the interpretable matrix
representations of LPs. These interpretable matrices are deemed as trainable
tensors in neural networks (NNs). The NNs are devised according to the
differentiable semantics of LPs. Specifically, we first adopt a novel
propositionalization method that transfers facts to NN-readable vector pairs
representing interpretation pairs. We replace the immediate consequence
operator with NN constraint functions consisting of algebraic operations and a
sigmoid-like activation function. We map the symbolic forward-chained format of
LPs into NN constraint functions consisting of operations between subsymbolic
vector representations of atoms. By applying gradient descent, the trained well
parameters of NNs can be decoded into precise symbolic LPs in forward-chained
logic format. We demonstrate that DFOL can perform on several standard ILP
datasets, knowledge bases, and probabilistic relation facts and outperform
several well-known differentiable ILP models. Experimental results indicate
that DFOL is a precise, robust, scalable, and computationally cheap
differentiable ILP model.
- Abstract(参考訳): データに対する直感的な洞察をもたらす関係事実から一階述語論理プログラム(LP)を学習することは、ニューロシンボリック研究において難しいトピックである。
本稿では,新たな微分型帰納的論理プログラミング(ILP)モデルである微分型一階述語規則学習器(DFOL)を導入し,LPの解釈可能な行列表現を探索することにより,関係事実から正しいLPを求める。
これらの解釈可能な行列はニューラルネットワーク(NN)のトレーニング可能なテンソルとみなされる。
NNはLPの識別可能なセマンティクスに基づいて考案される。
具体的には、まず、解釈ペアを表すNN可読ベクトル対に事実を転送する新しい命題化手法を採用する。
我々は、即時帰結演算子を代数演算とシグモイド様活性化関数からなるNN制約関数に置き換える。
我々は,LPの記号的前方鎖型フォーマットを,サブシンボリックベクトル表現間の操作からなるNN制約関数にマッピングする。
勾配降下を適用することで、トレーニング済みのNNの井戸パラメータをフォワードチェーン論理形式で正確なシンボルLPにデコードすることができる。
DFOL はいくつかの標準 ILP データセット,知識ベース,確率的関係事実上で動作し,よく知られた微分可能な ILP モデルより優れていることを示す。
実験結果から,DFOLは精度が高く,堅牢で,スケーラブルで,安価で微分可能なLPモデルであることが示唆された。
関連論文リスト
- Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Physics-informed neural networks for operator equations with stochastic
data [1.8275108630751837]
統計モーメントの計算をデータを用いた演算子方程式に考慮する。
TPINNと呼ばれるPINNの応用は、既存のPINNのコードの変更を最小限にして、誘導テンソル作用素方程式を解くことができる。
論文 参考訳(メタデータ) (2022-11-15T20:52:01Z) - Assessing the Unitary RNN as an End-to-End Compositional Model of Syntax [0.0]
LSTMとユニタリ進化リカレントニューラルネットワーク(URN)の両方が,2種類の構文パターンの精度を高めることができることを示す。
論文 参考訳(メタデータ) (2022-08-11T09:30:49Z) - PROTOtypical Logic Tensor Networks (PROTO-LTN) for Zero Shot Learning [2.236663830879273]
論理ネットワーク(英: Logic Networks, LTN)は、ディープニューラルネットワークに根ざした微分可能な一階述語論理に基づくニューロシンボリックシステムである。
ここでは、ほとんどの意味的画像解釈タスクをエンコードする基本となるsubsumptionまたはtextttisOfClass述語に焦点を当てる。
本稿では,オブジェクト埋め込みと対応するクラスプロトタイプ間の距離の関数を真理レベルとする,共通のtextttisOfClass述語を提案する。
論文 参考訳(メタデータ) (2022-06-26T18:34:07Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Deep learning with transfer functions: new applications in system
identification [0.0]
本稿では,自動微分計算のためのよく定義された効率的なバックプロパゲーション挙動を付与した線形動的作用素を提案する。
このオペレータは、線形転送関数と他の微分可能なユニットを含む構造化ネットワークのエンドツーエンドトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-20T08:58:55Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。