論文の概要: Pathformer: Recursive Path Query Encoding for Complex Logical Query Answering
- arxiv url: http://arxiv.org/abs/2406.14880v1
- Date: Fri, 21 Jun 2024 06:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:42:51.093318
- Title: Pathformer: Recursive Path Query Encoding for Complex Logical Query Answering
- Title(参考訳): Pathformer: 複雑な論理的クエリアンサーのための再帰的パスクエリエンコーディング
- Authors: Chongzhi Zhang, Zhiping Peng, Junhao Zheng, Linghao Wang, Ruifeng Shi, Qianli Ma,
- Abstract要約: 木のような計算グラフ,すなわちクエリツリーをベースとした,Pathformerと呼ばれるニューラルネットワークによる一点埋め込み手法を提案する。
具体的には、Pathformerはクエリ計算ツリーを分岐によってパスクエリシーケンスに分解する。
これにより、Pathformerは将来のコンテキスト情報を完全に活用して、パスクエリの様々な部分間の複雑な相互作用を明示的にモデル化することができる。
- 参考スコア(独自算出の注目度): 20.521886749524814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex Logical Query Answering (CLQA) over incomplete knowledge graphs is a challenging task. Recently, Query Embedding (QE) methods are proposed to solve CLQA by performing multi-hop logical reasoning. However, most of them only consider historical query context information while ignoring future information, which leads to their failure to capture the complex dependencies behind the elements of a query. In recent years, the transformer architecture has shown a strong ability to model long-range dependencies between words. The bidirectional attention mechanism proposed by the transformer can solve the limitation of these QE methods regarding query context. Still, as a sequence model, it is difficult for the transformer to model complex logical queries with branch structure computation graphs directly. To this end, we propose a neural one-point embedding method called Pathformer based on the tree-like computation graph, i.e., query computation tree. Specifically, Pathformer decomposes the query computation tree into path query sequences by branches and then uses the transformer encoder to recursively encode these path query sequences to obtain the final query embedding. This allows Pathformer to fully utilize future context information to explicitly model the complex interactions between various parts of the path query. Experimental results show that Pathformer outperforms existing competitive neural QE methods, and we found that Pathformer has the potential to be applied to non-one-point embedding space.
- Abstract(参考訳): 不完全な知識グラフに対する複雑な論理的クエリ解答(CLQA)は難しい課題です。
近年,マルチホップ論理推論によってCLQAを解くために,クエリ埋め込み(QE)手法が提案されている。
しかし、それらの多くは、将来の情報を無視しながら、過去のクエリコンテキスト情報しか考慮していないため、クエリの要素の背後にある複雑な依存関係をキャプチャできない。
近年、トランスフォーマーアーキテクチャは、単語間の長距離依存関係をモデル化する強力な能力を示している。
変換器が提案する双方向アテンション機構は、クエリコンテキストに関するこれらのQEメソッドの制限を解決することができる。
それでも、シーケンスモデルとして、分岐構造計算グラフを直接で複雑な論理的クエリをモデル化することは困難である。
そこで本研究では,木のような計算グラフ,すなわちクエリ計算木に基づく,Pathformerと呼ばれるニューラルネットワークによる一点埋め込み手法を提案する。
具体的には、Pathformerは、クエリ計算ツリーを分岐によってパスクエリシーケンスに分解し、変換器エンコーダを使用して、これらのパスクエリシーケンスを再帰的にエンコードして、最終的なクエリ埋め込みを取得する。
これにより、Pathformerは将来のコンテキスト情報を完全に活用して、パスクエリの様々な部分間の複雑な相互作用を明示的にモデル化することができる。
実験の結果、Pathformerは既存の競合型ニューラルネットワークQE法よりも優れており、Pathformerは非一点埋め込み空間に適用できる可能性があることが判明した。
関連論文リスト
- DAGE: DAG Query Answering via Relational Combinator with Logical Constraints [24.60431781360608]
DAGEと呼ばれるDAGクエリに対するクエリ埋め込み手法を提案する。
DAGEは2つのノード間の可能性のある複数のパスを、トレーニング可能なオペレータで単一のパスに結合する。
既存のクエリ埋め込みメソッド上にDAGEを実装することが可能であることを示す。
論文 参考訳(メタデータ) (2024-10-29T15:02:48Z) - Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Meta Operator for Complex Query Answering on Knowledge Graphs [58.340159346749964]
我々は、異なる複雑なクエリタイプではなく、異なる論理演算子型が一般化性を向上させる鍵であると主張する。
本稿では,メタ演算子を限られたデータで学習し,様々な複雑なクエリの演算子のインスタンスに適応するメタ学習アルゴリズムを提案する。
実験結果から,メタオペレータの学習は,従来のCQAモデルやメタCQAモデルよりも効果的であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T08:54:25Z) - Conditional Logical Message Passing Transformer for Complex Query Answering [22.485655410582375]
我々は、新しい最先端のニューラルCQAモデル、条件付き論理メッセージパッシングトランス(CLMPT)を提案する。
我々は,本手法が性能に影響を与えずに計算コストを削減できることを実証的に検証した。
実験の結果, CLMPTは最先端のニューラルCQAモデルであることがわかった。
論文 参考訳(メタデータ) (2024-02-20T12:17:01Z) - Query2Triple: Unified Query Encoding for Answering Diverse Complex
Queries over Knowledge Graphs [29.863085746761556]
単純で複雑なクエリのトレーニングを分離する新しいアプローチであるQuery to Triple (Q2T)を提案する。
提案するQ2Tは, トレーニングだけでなく, モジュール性にも優れ, 様々なニューラルネットワーク予測器に容易に適応できる。
論文 参考訳(メタデータ) (2023-10-17T13:13:30Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Query2Particles: Knowledge Graph Reasoning with Particle Embeddings [49.64006979045662]
本稿では,知識グラフにエッジを欠いた複雑な論理的クエリに応答するクエリ埋め込み手法を提案する。
回答エンティティは、エンティティの埋め込みとクエリの埋め込みの類似性に応じて選択される。
埋め込み空間上の様々な領域から多様な回答を検索するために,複雑なKGクエリ応答方法Q2Pを提案する。
論文 参考訳(メタデータ) (2022-04-27T11:16:08Z) - Bounded-Memory Criteria for Streams with Application Time [0.0]
境界メモリ計算可能性は、ストリーム上の実行可能な計算を扱うAIやデータベースの領域において、引き続き焦点を絞っている。
本研究は,アプリケーション時間付きストリーム上でのSPJクエリのメモリ境界計算可能性の基準を示す。
論文 参考訳(メタデータ) (2020-07-30T12:05:04Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z) - Message Passing Query Embedding [4.035753155957698]
本稿では,クエリのグラフ表現を符号化するグラフニューラルネットワークを提案する。
モデルは、明示的な監督なしにエンティティタイプの概念を捉えたエンティティ埋め込みを学習することを示します。
論文 参考訳(メタデータ) (2020-02-06T17:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。