論文の概要: PGDA-KGQA: A Prompt-Guided Generative Framework with Multiple Data Augmentation Strategies for Knowledge Graph Question Answering
- arxiv url: http://arxiv.org/abs/2506.09414v1
- Date: Wed, 11 Jun 2025 05:56:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.522639
- Title: PGDA-KGQA: A Prompt-Guided Generative Framework with Multiple Data Augmentation Strategies for Knowledge Graph Question Answering
- Title(参考訳): PGDA-KGQA:知識グラフ質問回答のための複数のデータ拡張戦略を備えたプロンプトガイド型生成フレームワーク
- Authors: Xiujun Zhou, Pingjian Zhang, Deyou Tang,
- Abstract要約: 知識グラフ質問回答(KGQA)は自然言語処理において重要な課題である。
PGDA-KGQA は,KGQA のための複数のデータ拡張戦略を備えた,プロンプト誘導型生成フレームワークである。
実験により、PGDA-KGQAは標準KGQAの最先端手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 3.8623708225544755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graph Question Answering (KGQA) is a crucial task in natural language processing that requires reasoning over knowledge graphs (KGs) to answer natural language questions. Recent methods utilizing large language models (LLMs) have shown remarkable semantic parsing capabilities but are limited by the scarcity of diverse annotated data and multi-hop reasoning samples. Traditional data augmentation approaches are focus mainly on single-hop questions and prone to semantic distortion, while LLM-based methods primarily address semantic distortion but usually neglect multi-hop reasoning, thus limiting data diversity. The scarcity of multi-hop samples further weakens models' generalization. To address these issues, we propose PGDA-KGQA, a prompt-guided generative framework with multiple data augmentation strategies for KGQA. At its core, PGDA-KGQA employs a unified prompt-design paradigm: by crafting meticulously engineered prompts that integrate the provided textual content, it leverages LLMs to generate large-scale (question, logical form) pairs for model training. Specifically, PGDA-KGQA enriches its training set by: (1) generating single-hop pseudo questions to improve the alignment of question semantics with KG relations; (2) applying semantic-preserving question rewriting to improve robustness against linguistic variations; (3) employing answer-guided reverse path exploration to create realistic multi-hop questions. By adopting an augment-generate-retrieve semantic parsing pipeline, PGDA-KGQA utilizes the augmented data to enhance the accuracy of logical form generation and thus improve answer retrieval performance. Experiments demonstrate that outperforms state-of-the-art methods on standard KGQA datasets, achieving improvements on WebQSP by 2.8%, 1.2%, and 3.1% and on ComplexWebQuestions by 1.8%, 1.1%, and 2.4% in F1, Hits@1, and Accuracy, respectively.
- Abstract(参考訳): 知識グラフ質問回答(英: Knowledge Graph Question Answering, KGQA)は、自然言語処理において重要な課題である。
近年の大規模言語モデル (LLM) を用いた手法は, セマンティック解析能力に優れるが, 多様な注釈付きデータやマルチホップ推論サンプルの不足により制限されている。
従来のデータ拡張アプローチは、主にシングルホップの質問に焦点をあて、セマンティックな歪みを生じる傾向があるが、LLMベースの手法は、主にセマンティックな歪みに対処するが、通常マルチホップの推論を無視し、データの多様性を制限する。
マルチホップサンプルの不足により、モデルの一般化はさらに弱まる。
これらの課題に対処するため, PGDA-KGQAを提案する。
PGDA-KGQAは、提供されたテキストコンテンツを統合する巧妙に設計されたプロンプトを作成することで、LLMを活用して、モデルトレーニング用の大規模(クエクション、論理形式)ペアを生成する。
具体的には,(1)質問セマンティクスとKG関係の整合性を改善するために単一ホップ疑似質問を生成すること,(2)言語的変動に対する堅牢性を改善するために意味保存的質問書き換えを適用すること,(3)回答誘導逆経路探索を用いて現実的なマルチホップ質問を生成すること,の2つのトレーニングセットを充実させる。
PGDA-KGQAは、拡張生成検索セマンティック解析パイプラインを採用することにより、この拡張データを用いて論理形式生成の精度を高め、回答検索性能を向上させる。
実験によると、標準的なKGQAデータセットでは最先端のメソッドよりも優れており、WebQSPでは2.8%、1.2%、そして3.1%、複雑なWebQuestionsでは1.8%、1.1%、F1では2.4%、Hits@1、精度がそれぞれ向上している。
関連論文リスト
- Knowledge Graph-extended Retrieval Augmented Generation for Question Answering [10.49712834719005]
本稿では,Large Language Models (LLMs) とKGs (KGs) を統合するシステムを提案する。
結果として得られるアプローチは、KGを持つ検索拡張生成(RAG)の特定の形式に分類される。
質問分解モジュールを含み、マルチホップ情報検索と回答可能性を高める。
論文 参考訳(メタデータ) (2025-04-11T18:03:02Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - SimGRAG: Leveraging Similar Subgraphs for Knowledge Graphs Driven Retrieval-Augmented Generation [6.568733377722896]
そこで我々はSimGRAG(Simisal Graph Enhanced Retrieval-Augmented Generation)法を提案する。
クエリテキストとナレッジグラフの整合性という課題に効果的に対処する。
SimGRAGは、質問応答と事実検証において最先端のKG駆動RAG法より優れている。
論文 参考訳(メタデータ) (2024-12-17T15:40:08Z) - Retrieval-Augmented Language Model for Extreme Multi-Label Knowledge Graph Link Prediction [2.6749568255705656]
大規模言語モデル(LLM)における開放的調査のための外挿は2つの重要な問題に遭遇する。
既存の作業は、知識グラフからの情報により、より小さな言語モデルの入力を増大させることによって、この問題に対処しようとするものである。
我々は,モデルが複数の応答で外挿を行うことを可能にするために,新たなタスク,極端なマルチラベルKGリンク予測タスクを提案する。
論文 参考訳(メタデータ) (2024-05-21T10:10:56Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Multi-hop Question Generation with Graph Convolutional Network [58.31752179830959]
マルチホップ質問生成(Multi-hop Question Generation, QG)は,異なる段落から散在する複数の証拠を集約・推論することで,回答に関連する質問を生成することを目的とする。
複数のホップでコンテキストエンコーディングを行うMulQG(Multi-Hop volution Fusion Network for Question Generation)を提案する。
提案モデルでは,高い完全性を有する流動的な質問を生成することができ,マルチホップ評価において,最強のベースラインを20.8%向上させることができる。
論文 参考訳(メタデータ) (2020-10-19T06:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。