論文の概要: Neural Compositional Rule Learning for Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2303.03581v1
- Date: Tue, 7 Mar 2023 01:29:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:54:12.267480
- Title: Neural Compositional Rule Learning for Knowledge Graph Reasoning
- Title(参考訳): 知識グラフ推論のためのニューラルコンポジションルール学習
- Authors: Kewei Cheng, Nesreen K. Ahmed, Yizhou Sun
- Abstract要約: NCRLと呼ばれる構成論理規則を学習するためのエンドツーエンドニューラルモデルを提案する。
我々は、NCRLはスケーラブルで効率的であり、大規模KG上での知識グラフ補完のための最先端の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 34.54793191654385
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learning logical rules is critical to improving reasoning in KGs. This is due
to their ability to provide logical and interpretable explanations when used
for predictions, as well as their ability to generalize to other tasks,
domains, and data. While recent methods have been proposed to learn logical
rules, the majority of these methods are either restricted by their
computational complexity and can not handle the large search space of
large-scale KGs, or show poor generalization when exposed to data outside the
training set. In this paper, we propose an end-to-end neural model for learning
compositional logical rules called NCRL. NCRL detects the best compositional
structure of a rule body, and breaks it into small compositions in order to
infer the rule head. By recurrently merging compositions in the rule body with
a recurrent attention unit, NCRL finally predicts a single rule head.
Experimental results show that NCRL learns high-quality rules, as well as being
generalizable. Specifically, we show that NCRL is scalable, efficient, and
yields state-of-the-art results for knowledge graph completion on large-scale
KGs. Moreover, we test NCRL for systematic generalization by learning to reason
on small-scale observed graphs and evaluating on larger unseen ones.
- Abstract(参考訳): 論理規則の学習は、KGの推論を改善するために重要である。
これは、予測に使用するときに論理的かつ解釈可能な説明を提供する能力と、他のタスク、ドメイン、データに一般化する能力があるためである。
近年,論理規則の学習方法が提案されているが,これらの手法の大部分は計算複雑性によって制限されており,大規模なKGの探索空間を扱えないか,トレーニングセット外のデータに露出した場合の一般化が不十分である。
本論文では,NCRLと呼ばれる構成論理規則を学習するためのエンドツーエンドニューラルネットワークを提案する。
NCRLは規則体の最高の構成構造を検出し、規則ヘッドを推測するためにそれを小さな組成に分解する。
NCRLは、ルール本体内の組成を繰り返し注意ユニットとマージすることにより、最終的に単一のルールヘッドを予測する。
実験の結果,ncrlは汎用性とともに高品質なルールを学習できることが判明した。
具体的には,ncrlはスケーラブルで効率的であり,大規模kgsの知識グラフ補完に最先端の結果が得られることを示す。
さらに,小規模観測グラフの推論を学習し,より大きな未知グラフについて評価することで,系統的一般化のためのncrlをテストした。
関連論文リスト
- Efficiently Learning Probabilistic Logical Models by Cheaply Ranking Mined Rules [9.303501974597548]
我々は、論理規則の精度とリコールを導入し、それらの構成をルールユーティリティとして定義する。
我々は、リレーショナルデータから論理モデルを学ぶためのスケーラブルなフレームワークであるSPECTRUMを紹介する。
論文 参考訳(メタデータ) (2024-09-24T16:54:12Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Towards Demystifying the Generalization Behaviors When Neural Collapse
Emerges [132.62934175555145]
Neural Collapse(NC)は、トレーニング末期(TPT)におけるディープニューラルネットワークのよく知られた現象である
本稿では,列車の精度が100%に達した後も,継続訓練がテストセットの精度向上に繋がる理由を理論的に説明する。
我々はこの新たに発見された性質を「非保守的一般化」と呼ぶ。
論文 参考訳(メタデータ) (2023-10-12T14:29:02Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Universal Approximation of Linear Time-Invariant (LTI) Systems through RNNs: Power of Randomness in Reservoir Computing [19.995241682744567]
貯留層計算(Reservoir Computing, RC)は、リカレントウェイトがランダム化され、トレーニングされていない特別なRNNである。
RCは一般線形時間不変系(LTI)を普遍的に近似できることを示す。
論文 参考訳(メタデータ) (2023-08-04T17:04:13Z) - Beyond accuracy: generalization properties of bio-plausible temporal
credit assignment rules [6.484759857565598]
我々は,RNNのトレーニングにおける最先端の生物学的に有望な学習規則は,より悪く,より可変な一般化性能を示すことを示した。
力学系の道具を用いて理論的な議論を導き、この現象を説明する定理を提示する。
我々の分析は、人工的な学習ルールと生物学的に証明可能な学習ルールの間に、この一般化のギャップがある理由を初めて特定するものである。
論文 参考訳(メタデータ) (2022-06-02T01:39:08Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs [91.71504177786792]
本稿では知識グラフに基づく推論のための論理規則の学習について研究する。
論理規則は、予測に使用されるときに解釈可能な説明を提供するとともに、他のタスクに一般化することができる。
既存の手法は、検索スペースの検索の問題や、スパース報酬による非効率な最適化に悩まされている。
論文 参考訳(メタデータ) (2020-10-08T14:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。