論文の概要: Ontology-Guided, Hybrid Prompt Learning for Generalization in Knowledge Graph Question Answering
- arxiv url: http://arxiv.org/abs/2502.03992v1
- Date: Thu, 06 Feb 2025 11:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:34:10.177881
- Title: Ontology-Guided, Hybrid Prompt Learning for Generalization in Knowledge Graph Question Answering
- Title(参考訳): 知識グラフ質問回答における一般化のためのオントロジー指導型ハイブリッド・プロンプト学習
- Authors: Longquan Jiang, Junbo Huang, Cedric Möller, Ricardo Usbeck,
- Abstract要約: OntoSCPromptは,2段階アーキテクチャを持つ新しい大規模言語モデル(LLM)ベースのKGQAアプローチである。
OntoSCPromptはまず、SPARQLクエリ構造(SELECT、ASK、WHERE、トークン不足のためのプレースホルダーなどのSPARQLキーワードを含む)を生成し、KG固有の情報でそれらを埋める。
両段階で生成されたSPARQLクエリの正しさと実行性を保証するために,タスク固有のデコーディング戦略をいくつか提示する。
- 参考スコア(独自算出の注目度): 6.232269207752904
- License:
- Abstract: Most existing Knowledge Graph Question Answering (KGQA) approaches are designed for a specific KG, such as Wikidata, DBpedia or Freebase. Due to the heterogeneity of the underlying graph schema, topology and assertions, most KGQA systems cannot be transferred to unseen Knowledge Graphs (KGs) without resource-intensive training data. We present OntoSCPrompt, a novel Large Language Model (LLM)-based KGQA approach with a two-stage architecture that separates semantic parsing from KG-dependent interactions. OntoSCPrompt first generates a SPARQL query structure (including SPARQL keywords such as SELECT, ASK, WHERE and placeholders for missing tokens) and then fills them with KG-specific information. To enhance the understanding of the underlying KG, we present an ontology-guided, hybrid prompt learning strategy that integrates KG ontology into the learning process of hybrid prompts (e.g., discrete and continuous vectors). We also present several task-specific decoding strategies to ensure the correctness and executability of generated SPARQL queries in both stages. Experimental results demonstrate that OntoSCPrompt performs as well as SOTA approaches without retraining on a number of KGQA datasets such as CWQ, WebQSP and LC-QuAD 1.0 in a resource-efficient manner and can generalize well to unseen domain-specific KGs like DBLP-QuAD and CoyPu KG Code: \href{https://github.com/LongquanJiang/OntoSCPrompt}{https://github.com/LongquanJiang/OntoSCPrompt}
- Abstract(参考訳): 既存の知識グラフ質問回答(KGQA)アプローチは、Wikidata、DBpedia、Freebaseなどの特定のKG向けに設計されている。
基礎となるグラフスキーマ、トポロジ、アサーションの異質性のため、ほとんどのKGQAシステムはリソース集約的なトレーニングデータなしでは未知の知識グラフ(KG)に転送できない。
OntoSCPromptは,KGに依存した相互作用からセマンティック解析を分離する2段階アーキテクチャを備えた,LLM(Large Language Model)ベースのKGQAアプローチである。
OntoSCPromptはまず、SPARQLクエリ構造(SELECT、ASK、WHERE、トークン不足のためのプレースホルダーなどのSPARQLキーワードを含む)を生成し、KG固有の情報でそれらを埋める。
基礎となるKGの理解を深めるために,KGオントロジーをハイブリッドプロンプト(離散ベクトル,連続ベクトル)の学習プロセスに統合するオントロジー誘導型ハイブリッドプロンプト学習戦略を提案する。
また、生成したSPARQLクエリの正しさと実行性を保証するために、タスク固有のデコード戦略をいくつか提示する。
実験結果によると、OntoSCPromptは、リソース効率のよいCWQ、WebQSP、LC-QuAD 1.0などの多くのKGQAデータセットを再トレーニングすることなくSOTAアプローチと同様に機能し、DBLP-QuADやCoyPu KG Codeのようなドメイン固有のKGをうまく一般化することができる。
関連論文リスト
- Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - RAGONITE: Iterative Retrieval on Induced Databases and Verbalized RDF for Conversational QA over KGs with RAG [6.4032082023113475]
SPARQLは複雑な意図と会話型の質問に対して脆弱である。
i)知識グラフから自動的に抽出されたデータベース上のSPARQL結果と、(ii)KG事実の動詞化に関するテキスト検索結果。
パイプラインは反復的な検索をサポートし、どのブランチの結果も満足できないと判断された場合、システムは自動的にラウンドを選択できる。
本稿では,BMW自動車の知識グラフに基づくいくつかのベースラインに対する提案方式の優位性を示す。
論文 参考訳(メタデータ) (2024-12-23T16:16:30Z) - Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Multi-hop Question Answering over Knowledge Graphs using Large Language Models [1.8130068086063336]
複数のホップを含む知識グラフに答える能力(LLM)を評価する。
我々は、KGのサイズや性質によって、関連する情報をLLMに抽出し、供給するために異なるアプローチが必要であることを示す。
論文 参考訳(メタデータ) (2024-04-30T03:31:03Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - A Universal Question-Answering Platform for Knowledge Graphs [7.2676028986202]
我々は,各ターゲットKGに合わせて調整する必要がない汎用QAシステムであるKGQAnを提案する。
KGQAnは、回答の質や処理時間の点で、最先端の大幅なマージンによって容易にデプロイされ、性能が向上する。
論文 参考訳(メタデータ) (2023-03-01T15:35:32Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。