論文の概要: Logical Message Passing Networks with One-hop Inference on Atomic
Formulas
- arxiv url: http://arxiv.org/abs/2301.08859v4
- Date: Sat, 26 Aug 2023 07:45:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 00:55:15.891157
- Title: Logical Message Passing Networks with One-hop Inference on Atomic
Formulas
- Title(参考訳): 原子式上のワンホップ推論を用いた論理メッセージパッシングネットワーク
- Authors: Zihao Wang, Yangqiu Song, Ginny Y. Wong, Simon See
- Abstract要約: 本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
- 参考スコア(独自算出の注目度): 57.47174363091452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex Query Answering (CQA) over Knowledge Graphs (KGs) has attracted a lot
of attention to potentially support many applications. Given that KGs are
usually incomplete, neural models are proposed to answer the logical queries by
parameterizing set operators with complex neural networks. However, such
methods usually train neural set operators with a large number of entity and
relation embeddings from the zero, where whether and how the embeddings or the
neural set operators contribute to the performance remains not clear. In this
paper, we propose a simple framework for complex query answering that
decomposes the KG embeddings from neural set operators. We propose to represent
the complex queries into the query graph. On top of the query graph, we propose
the Logical Message Passing Neural Network (LMPNN) that connects the local
one-hop inferences on atomic formulas to the global logical reasoning for
complex query answering. We leverage existing effective KG embeddings to
conduct one-hop inferences on atomic formulas, the results of which are
regarded as the messages passed in LMPNN. The reasoning process over the
overall logical formulas is turned into the forward pass of LMPNN that
incrementally aggregates local information to finally predict the answers'
embeddings. The complex logical inference across different types of queries
will then be learned from training examples based on the LMPNN architecture.
Theoretically, our query-graph represenation is more general than the
prevailing operator-tree formulation, so our approach applies to a broader
range of complex KG queries. Empirically, our approach yields the new
state-of-the-art neural CQA model. Our research bridges the gap between complex
KG query answering tasks and the long-standing achievements of knowledge graph
representation learning.
- Abstract(参考訳): 知識グラフ(KG)に対する複雑なクエリアンサーリング(CQA)は多くのアプリケーションをサポートするために多くの注目を集めています。
KGは通常不完全であるので、複雑なニューラルネットワークで集合演算子をパラメータ化することで論理的クエリに答えるニューラルモデルが提案されている。
しかし、そのような手法は通常、多くの実体とゼロからの組込みを持つ神経集合演算子を訓練するが、組込み演算子や神経集合演算子がパフォーマンスにどのように寄与するかは定かではない。
本稿では,KG埋め込みをニューラルネットワーク演算子から分解する,複雑なクエリ応答のための単純なフレームワークを提案する。
複雑なクエリを問合せグラフに表現することを提案する。
問合せグラフ上では、局所的な原子式上のワンホップ推論と、複雑な問合せ応答のグローバル論理推論を結合する論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々は、既存の有効なKG埋め込みを利用して、原子式上のワンホップ推論を行い、その結果をLMPNNで渡されるメッセージと見なす。
論理式全体に対する推論プロセスはLMPNNの前方通過に変換され、局所的な情報を漸進的に集約して解答の埋め込みを予測する。
異なるタイプのクエリに対する複雑な論理推論は、LMPNNアーキテクチャに基づいたトレーニング例から学習される。
理論的には、我々のクエリグラフ補充は、一般的なオペレータツリーの定式化よりも一般的であるため、我々のアプローチはより広範な複雑なKGクエリに適用できる。
経験的に、我々のアプローチは新しい最先端のニューラルCQAモデルをもたらす。
本研究は,複雑なkg問合せ課題と知識グラフ表現学習の長期的成果とのギャップを橋渡しする。
関連論文リスト
- Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Meta Operator for Complex Query Answering on Knowledge Graphs [58.340159346749964]
我々は、異なる複雑なクエリタイプではなく、異なる論理演算子型が一般化性を向上させる鍵であると主張する。
本稿では,メタ演算子を限られたデータで学習し,様々な複雑なクエリの演算子のインスタンスに適応するメタ学習アルゴリズムを提案する。
実験結果から,メタオペレータの学習は,従来のCQAモデルやメタCQAモデルよりも効果的であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T08:54:25Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - Inductive Logical Query Answering in Knowledge Graphs [30.220508024471595]
本研究では、新しいエンティティを含むグラフ上で推論を行う帰納的クエリ応答タスクについて検討する。
グラフニューラルネットワーク(GNN)を用いた帰納的ノードと関係構造表現の2つのメカニズムを考案する。
実験により、帰納的モデルは、学習ノードよりも最大500%大きいグラフに一般化した未確認ノードに対して、推論時間で論理的推論を行うことができることを示した。
論文 参考訳(メタデータ) (2022-10-13T03:53:34Z) - Neural-Symbolic Entangled Framework for Complex Query Answering [22.663509971491138]
複雑な問合せ応答のためのニューラル・アンド・エンタングルド・フレームワーク(ENeSy)を提案する。
これにより、ニューラルネットワークとシンボリック推論が互いに強化され、カスケードエラーとKGの不完全性が軽減される。
ENeSyは、特にリンク予測タスクのみでトレーニングモデルの設定において、いくつかのベンチマークでSOTA性能を達成する。
論文 参考訳(メタデータ) (2022-09-19T06:07:10Z) - Neural-Symbolic Models for Logical Queries on Knowledge Graphs [17.290758383645567]
両世界の利点を享受するニューラルシンボリックモデルであるグラフニューラルネットワーククエリ実行器(GNN-QE)を提案する。
GNN-QEは複雑なFOLクエリを、ファジィ集合上の関係投影と論理演算に分解する。
3つのデータセットの実験により、GNN-QEはFOLクエリに応答する以前の最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-05-16T18:39:04Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - Fuzzy Logic based Logical Query Answering on Knowledge Graph [37.039516386710716]
本稿では,FOLクエリをKG上で応答するファジィ論理ベースのクエリ埋め込みフレームワークFuzzQEを提案する。
ファジィQEはファジィ論理に従い、原理的かつ学習的な方法で論理演算子を定義する。
2つのベンチマークデータセットの実験では、FOLクエリに対するFzzQEのパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2021-08-05T05:54:00Z) - Query Embedding on Hyper-relational Knowledge Graphs [0.4779196219827507]
マルチホップ論理推論は知識グラフ上の表現学習の分野で確立された問題である。
我々はマルチホップ推論問題をハイパーリレーショナルなKGに拡張し、この新しいタイプの複雑なクエリに対処する。
論文 参考訳(メタデータ) (2021-06-15T14:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。