論文の概要: Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2410.20321v1
- Date: Sun, 27 Oct 2024 03:18:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:22:59.883770
- Title: Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs
- Title(参考訳): 知識グラフを用いた複雑な論理的問合せに対する効果的な命令解析プラグイン
- Authors: Xingrui Zhuo, Jiapu Wang, Gongqing Wu, Shirui Pan, Xindong Wu,
- Abstract要約: 知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
- 参考スコア(独自算出の注目度): 51.33342412699939
- License:
- Abstract: Knowledge Graph Query Embedding (KGQE) aims to embed First-Order Logic (FOL) queries in a low-dimensional KG space for complex reasoning over incomplete KGs. To enhance the generalization of KGQE models, recent studies integrate various external information (such as entity types and relation context) to better capture the logical semantics of FOL queries. The whole process is commonly referred to as Query Pattern Learning (QPL). However, current QPL methods typically suffer from the pattern-entity alignment bias problem, leading to the learned defective query patterns limiting KGQE models' performance. To address this problem, we propose an effective Query Instruction Parsing Plugin (QIPP) that leverages the context awareness of Pre-trained Language Models (PLMs) to capture latent query patterns from code-like query instructions. Unlike the external information introduced by previous QPL methods, we first propose code-like instructions to express FOL queries in an alternative format. This format utilizes textual variables and nested tuples to convey the logical semantics within FOL queries, serving as raw materials for a PLM-based instruction encoder to obtain complete query patterns. Building on this, we design a query-guided instruction decoder to adapt query patterns to KGQE models. To further enhance QIPP's effectiveness across various KGQE models, we propose a query pattern injection mechanism based on compressed optimization boundaries and an adaptive normalization component, allowing KGQE models to utilize query patterns more efficiently. Extensive experiments demonstrate that our plug-and-play method improves the performance of eight basic KGQE models and outperforms two state-of-the-art QPL methods.
- Abstract(参考訳): 知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
KGQEモデルの一般化を促進するため、最近の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、様々な外部情報(エンティティタイプや関係コンテキストなど)を統合している。
プロセス全体をクエリパターン学習(Query Pattern Learning, QPL)と呼ぶ。
しかし、現在のQPL法はパターンのアライメントバイアスの問題に悩まされ、KGQEモデルの性能を制限している。
この問題に対処するために,事前学習言語モデル(PLM)の文脈認識を活用して,コードのようなクエリ命令から潜在クエリパターンをキャプチャする,効果的なクエリ命令解析プラグイン(QIPP)を提案する。
従来のQPL法で導入された外部情報とは違って,FOLクエリを代替フォーマットで表現するためのコードライクな命令を提案する。
このフォーマットでは、テキスト変数とネストタプルを使用して、FOLクエリ内の論理的意味を伝達し、PLMベースの命令エンコーダの原料として、完全なクエリパターンを得る。
これに基づいて、クエリパターンをKGQEモデルに適応させるクエリ誘導命令デコーダを設計する。
各種KGQEモデルにおけるQIPPの有効性をさらに向上するため、圧縮最適化境界と適応正規化成分に基づくクエリパターン注入機構を提案し、クエリパターンをより効率的に利用できるようにする。
本手法は8つの基本KGQEモデルの性能を向上し、2つの最先端QPL法より優れていることを示す。
関連論文リスト
- User Intent Recognition and Semantic Cache Optimization-Based Query Processing Framework using CFLIS and MGR-LAU [0.0]
この研究は、拡張QPのためのクエリにおける情報、ナビゲーション、およびトランザクションベースのインテントを分析した。
効率的なQPのために、データはEpanechnikov Kernel-Ordering Pointsを用いて構造化され、クラスタリング構造(EK-OPTICS)を同定する。
抽出された特徴、検出された意図、構造化データは、MGR-LAU(Multi-head Gated Recurrent Learnable Attention Unit)に入力される。
論文 参考訳(メタデータ) (2024-06-06T20:28:05Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Type-based Neural Link Prediction Adapter for Complex Query Answering [2.1098688291287475]
本稿では,タイプベースエンティティ関係グラフを構成する新しいモデルであるTypEベースのニューラルリンク予測アダプタ(TENLPA)を提案する。
型情報と複雑な論理的クエリを効果的に結合するために,適応学習機構を導入する。
3つの標準データセットの実験により、TENLPAモデルが複雑なクエリ応答における最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-01-29T10:54:28Z) - Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - Sequential Query Encoding For Complex Query Answering on Knowledge
Graphs [31.40820604209387]
本稿では,知識グラフ(KG)推論のためのクエリを符号化する代替手段として,シーケンシャルクエリ符号化(SQE)を提案する。
SQEはまず、探索ベースのアルゴリズムを使用して、計算グラフを一連のトークンに線形化し、次にシーケンスエンコーダを使用してベクトル表現を計算する。
その単純さにもかかわらず、SQEはFB15k、FB15k-237、NELLで最先端のニューラルネットワーク符号化性能を示す。
論文 参考訳(メタデータ) (2023-02-25T16:33:53Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - Message Passing Query Embedding [4.035753155957698]
本稿では,クエリのグラフ表現を符号化するグラフニューラルネットワークを提案する。
モデルは、明示的な監督なしにエンティティタイプの概念を捉えたエンティティ埋め込みを学習することを示します。
論文 参考訳(メタデータ) (2020-02-06T17:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。