論文の概要: Ontology-Guided, Hybrid Prompt Learning for Generalization in Knowledge Graph Question Answering
- arxiv url: http://arxiv.org/abs/2502.03992v1
- Date: Thu, 06 Feb 2025 11:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 15:30:40.732676
- Title: Ontology-Guided, Hybrid Prompt Learning for Generalization in Knowledge Graph Question Answering
- Title(参考訳): 知識グラフ質問回答における一般化のためのオントロジー指導型ハイブリッド・プロンプト学習
- Authors: Longquan Jiang, Junbo Huang, Cedric Möller, Ricardo Usbeck,
- Abstract要約: OntoSCPromptは,2段階アーキテクチャを持つ新しい大規模言語モデル(LLM)ベースのKGQAアプローチである。
OntoSCPromptはまず、SPARQLクエリ構造(SELECT、ASK、WHERE、トークン不足のためのプレースホルダーなどのSPARQLキーワードを含む)を生成し、KG固有の情報でそれらを埋める。
両段階で生成されたSPARQLクエリの正しさと実行性を保証するために,タスク固有のデコーディング戦略をいくつか提示する。
- 参考スコア(独自算出の注目度): 6.232269207752904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing Knowledge Graph Question Answering (KGQA) approaches are designed for a specific KG, such as Wikidata, DBpedia or Freebase. Due to the heterogeneity of the underlying graph schema, topology and assertions, most KGQA systems cannot be transferred to unseen Knowledge Graphs (KGs) without resource-intensive training data. We present OntoSCPrompt, a novel Large Language Model (LLM)-based KGQA approach with a two-stage architecture that separates semantic parsing from KG-dependent interactions. OntoSCPrompt first generates a SPARQL query structure (including SPARQL keywords such as SELECT, ASK, WHERE and placeholders for missing tokens) and then fills them with KG-specific information. To enhance the understanding of the underlying KG, we present an ontology-guided, hybrid prompt learning strategy that integrates KG ontology into the learning process of hybrid prompts (e.g., discrete and continuous vectors). We also present several task-specific decoding strategies to ensure the correctness and executability of generated SPARQL queries in both stages. Experimental results demonstrate that OntoSCPrompt performs as well as SOTA approaches without retraining on a number of KGQA datasets such as CWQ, WebQSP and LC-QuAD 1.0 in a resource-efficient manner and can generalize well to unseen domain-specific KGs like DBLP-QuAD and CoyPu KG Code: \href{https://github.com/LongquanJiang/OntoSCPrompt}{https://github.com/LongquanJiang/OntoSCPrompt}
- Abstract(参考訳): 既存の知識グラフ質問回答(KGQA)アプローチは、Wikidata、DBpedia、Freebaseなどの特定のKG向けに設計されている。
基礎となるグラフスキーマ、トポロジ、アサーションの異質性のため、ほとんどのKGQAシステムはリソース集約的なトレーニングデータなしでは未知の知識グラフ(KG)に転送できない。
OntoSCPromptは,KGに依存した相互作用からセマンティック解析を分離する2段階アーキテクチャを備えた,LLM(Large Language Model)ベースのKGQAアプローチである。
OntoSCPromptはまず、SPARQLクエリ構造(SELECT、ASK、WHERE、トークン不足のためのプレースホルダーなどのSPARQLキーワードを含む)を生成し、KG固有の情報でそれらを埋める。
基礎となるKGの理解を深めるために,KGオントロジーをハイブリッドプロンプト(離散ベクトル,連続ベクトル)の学習プロセスに統合するオントロジー誘導型ハイブリッドプロンプト学習戦略を提案する。
また、生成したSPARQLクエリの正しさと実行性を保証するために、タスク固有のデコード戦略をいくつか提示する。
実験結果によると、OntoSCPromptは、リソース効率のよいCWQ、WebQSP、LC-QuAD 1.0などの多くのKGQAデータセットを再トレーニングすることなくSOTAアプローチと同様に機能し、DBLP-QuADやCoyPu KG Codeのようなドメイン固有のKGをうまく一般化することができる。
関連論文リスト
- Transformers for Complex Query Answering over Knowledge Hypergraphs [48.55646194244594]
三重KGは、アーニティ2の実体と関係からなる古典的なKGとして、現実世界の事実の限定的な表現を持つ。
本稿では,2段階の変圧器モデルである論理知識ハイパーグラフ変換器(LKHGT)を提案する。
CQAデータセットの実験結果から,LKHGTはKHG上の最先端のCQA手法であり,アウト・オブ・ディストリビューションクエリタイプに一般化可能であることが示された。
論文 参考訳(メタデータ) (2025-04-23T09:07:21Z) - Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - RAGONITE: Iterative Retrieval on Induced Databases and Verbalized RDF for Conversational QA over KGs with RAG [6.4032082023113475]
SPARQLは複雑な意図と会話型の質問に対して脆弱である。
i)知識グラフから自動的に抽出されたデータベース上のSPARQL結果と、(ii)KG事実の動詞化に関するテキスト検索結果。
パイプラインは反復的な検索をサポートし、どのブランチの結果も満足できないと判断された場合、システムは自動的にラウンドを選択できる。
本稿では,BMW自動車の知識グラフに基づくいくつかのベースラインに対する提案方式の優位性を示す。
論文 参考訳(メタデータ) (2024-12-23T16:16:30Z) - Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Multi-hop Question Answering over Knowledge Graphs using Large Language Models [1.8130068086063336]
複数のホップを含む知識グラフに答える能力(LLM)を評価する。
我々は、KGのサイズや性質によって、関連する情報をLLMに抽出し、供給するために異なるアプローチが必要であることを示す。
論文 参考訳(メタデータ) (2024-04-30T03:31:03Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Federated Neural Graph Databases [53.03085605769093]
プライバシを保ちながらマルチソースグラフベースのデータの推論を可能にする新しいフレームワークであるFederated Neural Graph Database (FedNGDB)を提案する。
既存の方法とは異なり、FedNGDBは複雑なグラフ構造と関係を扱うことができ、様々な下流タスクに適合する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - A Universal Question-Answering Platform for Knowledge Graphs [7.2676028986202]
我々は,各ターゲットKGに合わせて調整する必要がない汎用QAシステムであるKGQAnを提案する。
KGQAnは、回答の質や処理時間の点で、最先端の大幅なマージンによって容易にデプロイされ、性能が向上する。
論文 参考訳(メタデータ) (2023-03-01T15:35:32Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。