論文の概要: Neural Theorem Provers Delineating Search Area Using RNN
- arxiv url: http://arxiv.org/abs/2203.06985v1
- Date: Mon, 14 Mar 2022 10:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:05:18.335223
- Title: Neural Theorem Provers Delineating Search Area Using RNN
- Title(参考訳): RNNを用いた探索領域を記述したニューラル定理証明器
- Authors: Yu-hao Wu and Hou-biao Li
- Abstract要約: 一般化EMベースの手法を用いてニューラル定理の計算効率を継続的に向上するRNNNTP法を提案する。
関係生成装置を効果的に、かつ、解釈可能に訓練し、トレーニングの進展に応じて全体モデルを実行することができ、計算効率も大幅に向上する。
- 参考スコア(独自算出の注目度): 2.462063246087401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although traditional symbolic reasoning methods are highly interpretable,
their application in knowledge graphs link prediction has been limited due to
their computational inefficiency. A new RNNNTP method is proposed in this
paper, using a generalized EM-based approach to continuously improve the
computational efficiency of Neural Theorem Provers(NTPs). The RNNNTP is divided
into relation generator and predictor. The relation generator is trained
effectively and interpretably, so that the whole model can be carried out
according to the development of the training, and the computational efficiency
is also greatly improved. In all four data-sets, this method shows competitive
performance on the link prediction task relative to traditional methods as well
as one of the current strong competitive methods.
- Abstract(参考訳): 従来の記号推論法は非常に解釈可能であるが、知識グラフにおけるリンク予測は計算の非効率のために制限されている。
本稿では,ニューラル定理プロバー(NTP)の計算効率を継続的に向上させるために,一般化EMベースの手法を用いて新しいRNNNTP法を提案する。
RNNNTPは関係生成器と予測器に分けられる。
関係生成器を効果的かつ解釈可能に訓練することにより、トレーニングの開発に応じてモデル全体の実行が可能となり、計算効率も大幅に向上する。
これら4つのデータ集合において,本手法は従来の手法に対するリンク予測タスクの競合性能と,現在の強力な競合手法の1つを示す。
関連論文リスト
- Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Distilling Knowledge from Resource Management Algorithms to Neural
Networks: A Unified Training Assistance Approach [18.841969905928337]
本稿では,知識蒸留(KD)に基づくアルゴリズム蒸留(AD)法を提案する。
本研究は,無線通信システム最適化における従来の最適化洞察と新しいNN技術の統合の道を開くものである。
論文 参考訳(メタデータ) (2023-08-15T00:30:58Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - RNNCTPs: A Neural Symbolic Reasoning Method Using Dynamic Knowledge
Partitioning Technology [2.462063246087401]
本稿では,新しいニューラルシンボリック推論手法RNNCTPを提案する。
RNNCTPは、条件付き定理証明器の知識選択を再フィルタすることで、計算効率を向上させる。
全ての4つのデータセットにおいて、リンク予測タスクにおける従来の手法と競合する性能を示す。
論文 参考訳(メタデータ) (2022-04-19T11:18:03Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Learning to Guide a Saturation-Based Theorem Prover [9.228237801323042]
TRAILは、ニューラルネットワーク内で証明される飽和に基づく定理の中核要素を特徴付ける、深い学習に基づく定理証明のアプローチである。
我々の知る限りでは、TRAILは最先端の伝統的な定理証明器の性能を超える最初の強化学習に基づくアプローチである。
論文 参考訳(メタデータ) (2021-06-07T18:35:57Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - A Lagrangian Dual-based Theory-guided Deep Neural Network [0.0]
The Lagrangian dual-based TgNN (TgNN-LD) is proposed to improve the effective of TgNN。
実験により、ラグランジアン双対ベースTgNNの優位性が示された。
論文 参考訳(メタデータ) (2020-08-24T02:06:19Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。