論文の概要: Logical Message Passing Networks with One-hop Inference on Atomic
Formulas
- arxiv url: http://arxiv.org/abs/2301.08859v1
- Date: Sat, 21 Jan 2023 02:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 16:09:04.562933
- Title: Logical Message Passing Networks with One-hop Inference on Atomic
Formulas
- Title(参考訳): 原子式上のワンホップ推論を用いた論理メッセージパッシングネットワーク
- Authors: Zihao Wang, Yangqiu Song, Ginny Y. Wong, Simon See
- Abstract要約: 本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフ上では,原子式上のテキストローカルなワンホップ推論を接続する論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
- 参考スコア(独自算出の注目度): 33.951956139508304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex Query Answering (CQA) over Knowledge Graphs (KGs) has attracted a lot
of attention to potentially support many applications. Given that KGs are
usually incomplete, neural models are proposed to answer logical queries by
parameterizing set operators with complex neural networks. However, such
methods usually train neural set operators with a large number of entity and
relation embeddings from zero, where whether and how the embeddings or the
neural set operators contribute to the performance remains not clear. In this
paper, we propose a simple framework for complex query answering that
decomposes the KG embeddings from neural set operators. We propose to represent
the complex queries in the query graph. On top of the query graph, we propose
the Logical Message Passing Neural Network (LMPNN) that connects the
\textit{local} one-hop inferences on atomic formulas to the \textit{global}
logical reasoning for complex query answering. We leverage existing effective
KG embeddings to conduct one-hop inferences on atomic formulas, the results of
which are regarded as the messages passed in LMPNN. The reasoning process over
the overall logical formulas is turned into the forward pass of LMPNN that
incrementally aggregates local information to predict the answers' embeddings
finally. The complex logical inference across different types of queries will
then be learned from training examples based on the LMPNN architecture.
Theoretically, our query-graph representation is more general than the
prevailing operator-tree formulation, so our approach applies to a broader
range of complex KG queries. Empirically, our approach yields a new
state-of-the-art neural CQA model. Our research bridges the gap between complex
KG query answering tasks and the long-standing achievements of knowledge graph
representation learning.
- Abstract(参考訳): 知識グラフ(KG)に対する複雑なクエリアンサーリング(CQA)は多くのアプリケーションをサポートするために多くの注目を集めています。
KGは通常不完全であるので、複雑なニューラルネットワークで集合演算子をパラメータ化することで論理的クエリに答えるニューラルモデルが提案されている。
しかし、そのような手法は通常、多くの実体と関係がゼロから埋め込まれたニューラルセット演算子を訓練するが、埋め込み演算子やニューラルセット演算子がパフォーマンスにどのように寄与するかは定かではない。
本稿では,KG埋め込みをニューラルネットワーク演算子から分解する,複雑なクエリ応答のための単純なフレームワークを提案する。
クエリグラフで複雑なクエリを表現することを提案する。
問合せグラフ上では,原子式上の1ホップ1ホップの推論を,複雑な問合せ応答の論理的推論に接続する論理メッセージパッシングニューラルネットワーク (LMPNN) を提案する。
我々は、既存の有効なKG埋め込みを利用して、原子式上のワンホップ推論を行い、その結果をLMPNNで渡されるメッセージと見なす。
論理式全体に対する推論プロセスはLMPNNの前方通過に変換され、局所的な情報を漸進的に集約して解答の埋め込みを予測する。
異なるタイプのクエリに対する複雑な論理推論は、LMPNNアーキテクチャに基づいたトレーニング例から学習される。
理論的には、クエリグラフ表現は一般的な演算子ツリー形式よりも一般的であるため、より広い範囲の複雑なkgクエリに適用できる。
経験的に、我々のアプローチは新しい最先端のニューラルCQAモデルをもたらす。
本研究は,複雑なkg問合せ課題と知識グラフ表現学習の長期的成果とのギャップを橋渡しする。
関連論文リスト
- FedCQA: Answering Complex Queries on Multi-Source Knowledge Graphs via
Federated Learning [55.02512821257247]
複雑な論理的問合せ応答は知識グラフ(KG)の課題である
近年、KGエンティティを埋め込みベクトルに表現し、KGからの論理的クエリに対する回答を求める手法が提案されている。
マルチソースKGのクエリにどのように答えるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link
Predictors [65.56849255423866]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Inductive Logical Query Answering in Knowledge Graphs [30.220508024471595]
本研究では、新しいエンティティを含むグラフ上で推論を行う帰納的クエリ応答タスクについて検討する。
グラフニューラルネットワーク(GNN)を用いた帰納的ノードと関係構造表現の2つのメカニズムを考案する。
実験により、帰納的モデルは、学習ノードよりも最大500%大きいグラフに一般化した未確認ノードに対して、推論時間で論理的推論を行うことができることを示した。
論文 参考訳(メタデータ) (2022-10-13T03:53:34Z) - Neural-Symbolic Entangled Framework for Complex Query Answering [22.663509971491138]
複雑な問合せ応答のためのニューラル・アンド・エンタングルド・フレームワーク(ENeSy)を提案する。
これにより、ニューラルネットワークとシンボリック推論が互いに強化され、カスケードエラーとKGの不完全性が軽減される。
ENeSyは、特にリンク予測タスクのみでトレーニングモデルの設定において、いくつかのベンチマークでSOTA性能を達成する。
論文 参考訳(メタデータ) (2022-09-19T06:07:10Z) - Neural-Symbolic Models for Logical Queries on Knowledge Graphs [17.290758383645567]
両世界の利点を享受するニューラルシンボリックモデルであるグラフニューラルネットワーククエリ実行器(GNN-QE)を提案する。
GNN-QEは複雑なFOLクエリを、ファジィ集合上の関係投影と論理演算に分解する。
3つのデータセットの実験により、GNN-QEはFOLクエリに応答する以前の最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-05-16T18:39:04Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - Fuzzy Logic based Logical Query Answering on Knowledge Graph [37.039516386710716]
本稿では,FOLクエリをKG上で応答するファジィ論理ベースのクエリ埋め込みフレームワークFuzzQEを提案する。
ファジィQEはファジィ論理に従い、原理的かつ学習的な方法で論理演算子を定義する。
2つのベンチマークデータセットの実験では、FOLクエリに対するFzzQEのパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2021-08-05T05:54:00Z) - Query Embedding on Hyper-relational Knowledge Graphs [0.4779196219827507]
マルチホップ論理推論は知識グラフ上の表現学習の分野で確立された問題である。
我々はマルチホップ推論問題をハイパーリレーショナルなKGに拡張し、この新しいタイプの複雑なクエリに対処する。
論文 参考訳(メタデータ) (2021-06-15T14:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。