論文の概要: AutoQGS: Auto-Prompt for Low-Resource Knowledge-based Question
Generation from SPARQL
- arxiv url: http://arxiv.org/abs/2208.12461v1
- Date: Fri, 26 Aug 2022 06:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:56:48.654725
- Title: AutoQGS: Auto-Prompt for Low-Resource Knowledge-based Question
Generation from SPARQL
- Title(参考訳): AutoQGS: SPARQLから低リソースの知識ベースの質問生成のための自動プロンプト
- Authors: Guanming Xiong, Junwei Bao, Wen Zhao, Youzheng Wu, Xiaodong He
- Abstract要約: 本研究では,知識に基づく質問生成(KBQG)の課題について検討する。
従来のKBQGは知識グラフのファクトトリプルから質問を生成するが、これはSPARQLの集約や比較のような複雑な操作を表現できない。
本研究では,SPARQLをNL記述に書き換えるために,大規模教師なしデータに基づいて訓練された自動プロンプタを提案する。
- 参考スコア(独自算出の注目度): 18.019353543946913
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This study investigates the task of knowledge-based question generation
(KBQG). Conventional KBQG works generated questions from fact triples in the
knowledge graph, which could not express complex operations like aggregation
and comparison in SPARQL. Moreover, due to the costly annotation of large-scale
SPARQL-question pairs, KBQG from SPARQL under low-resource scenarios urgently
needs to be explored. Recently, since the generative pre-trained language
models (PLMs) typically trained in natural language (NL)-to-NL paradigm have
been proven effective for low-resource generation, e.g., T5 and BART, how to
effectively utilize them to generate NL-question from non-NL SPARQL is
challenging. To address these challenges, AutoQGS, an auto-prompt approach for
low-resource KBQG from SPARQL, is proposed. Firstly, we put forward to generate
questions directly from SPARQL for the KBQG task to handle complex operations.
Secondly, we propose an auto-prompter trained on large-scale unsupervised data
to rephrase SPARQL into NL description, smoothing the low-resource
transformation from non-NL SPARQL to NL question with PLMs. Experimental
results on the WebQuestionsSP, ComlexWebQuestions 1.1, and PathQuestions show
that our model achieves state-of-the-art performance, especially in
low-resource settings. Furthermore, a corpus of 330k factoid complex
question-SPARQL pairs is generated for further KBQG research.
- Abstract(参考訳): 本研究では,知識に基づく質問生成(KBQG)の課題について検討する。
従来のKBQGは知識グラフのファクトトリプルから質問を生成するが、SPARQLでは集約や比較のような複雑な操作を表現できなかった。
さらに、大規模SPARQLクエストペアのコストのかかるアノテーションのため、低リソースシナリオ下でSPARQLからKBQGを調べる必要がある。
近年、NL-to-NLパラダイムで訓練された生成事前学習言語モデル(PLM)は、T5やBARTのような低リソース生成に有効であることが証明されているため、非NL SPARQLからNL-クエストを生成するために効果的に活用する方法は難しい。
これらの課題に対処するため、SPARQLから低リソースKBQGの自動プロンプトアプローチであるAutoQGSが提案されている。
まず、複雑な操作を処理するKBQGタスクに対して、SPARQLから直接質問を生成します。
次に,SPARQLを非NL SPARQLからPLMによるNL質問への低リソース変換を円滑にする,大規模教師なしデータに基づく自動プロンプタを提案する。
WebQuestionsSP、ComlexWebQuestions 1.1、PathQuestionsの実験結果は、我々のモデルは、特に低リソース環境で、最先端のパフォーマンスを達成することを示す。
さらに、KBQG研究のために、330kのファクトイド複素問題-SPARQLペアのコーパスを生成する。
関連論文リスト
- Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - SPARQL Generation: an analysis on fine-tuning OpenLLaMA for Question
Answering over a Life Science Knowledge Graph [0.0]
生命科学知識グラフを用いた質問応答のためのOpenLlama LLMの微調整戦略を評価する。
本稿では,既存のクエリのセットを知識グラフ上に拡張するためのエンドツーエンドデータ拡張手法を提案する。
また、意味のある変数名やインラインコメントなど、クエリにおける意味的な"キュー"の役割についても検討する。
論文 参考訳(メタデータ) (2024-02-07T07:24:01Z) - Leveraging LLMs in Scholarly Knowledge Graph Question Answering [7.951847862547378]
KGQAは大きな言語モデル(LLM)を活用することで自然言語の質問に答える
SciQAのF1スコアは,Scholarly Knowledge Graph Question Answering Challengeベンチマークの1つである99.0%である。
論文 参考訳(メタデータ) (2023-11-16T12:13:49Z) - In-Context Learning for Knowledge Base Question Answering for Unmanned
Systems based on Large Language Models [43.642717344626355]
我々は,無人システムにおける知識グラフ推論を用いた質問回答コンペティション(CCKS2023)に注目した。
多くのQAタスクにおいてChatGPTやGPT-3のような大規模言語モデル(LLM)が最近成功したことに触発されて、ChatGPTベースのCypher Query Language(CQL)生成フレームワークを提案する。
当社のChatGPTベースのCQL生成フレームワークは、Unmanned Systemsコンペティションのための知識グラフ推論によるCCKS 2023質問回答において、第2位を獲得しました。
論文 参考訳(メタデータ) (2023-11-06T08:52:11Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Spider4SPARQL: A Complex Benchmark for Evaluating Knowledge Graph
Question Answering Systems [1.4732811715354452]
知識グラフ質問回答システムを評価するために、現実的なベンチマークを提供することがますます重要になっている。
Spider4SPARQLは、9,693の既存のNL質問と4,721のユニークな、新しい、複雑なSPARQLクエリを備えた、新しいSPARQLベンチマークデータセットである。
現状のKGQAシステムとLLMを用いてシステム評価を行い,実行精度は45%に過ぎなかった。
論文 参考訳(メタデータ) (2023-09-28T08:41:08Z) - Knowledge Base Question Answering by Case-based Reasoning over Subgraphs [81.22050011503933]
本モデルでは,既存のKG補完アルゴリズムよりも複雑な推論パターンを必要とする問合せに対して,より効果的に答えることを示す。
提案モデルは、KBQAベンチマークの最先端モデルよりも優れているか、競合的に動作する。
論文 参考訳(メタデータ) (2022-02-22T01:34:35Z) - SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs [1.1775939485654976]
SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
論文 参考訳(メタデータ) (2021-06-18T08:39:26Z) - Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [133.93803565077337]
検索強化生成モデルは、事前訓練されたパラメトリックメモリと非パラメトリックメモリを組み合わせて言語生成を行う。
我々は、RAGモデルが、最先端パラメトリックのみのセク2セックベースラインよりも、より具体的で、多様で、現実的な言語を生成することを示す。
論文 参考訳(メタデータ) (2020-05-22T21:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。