論文の概要: Q${}^2$Forge: Minting Competency Questions and SPARQL Queries for Question-Answering Over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2505.13572v1
- Date: Mon, 19 May 2025 13:26:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.451296
- Title: Q${}^2$Forge: Minting Competency Questions and SPARQL Queries for Question-Answering Over Knowledge Graphs
- Title(参考訳): Q${}^2$Forge:知識グラフに関する質問に対するコンピテンシー質問とSPARQLクエリのマイニング
- Authors: Yousouf Taghzouti, Franck Michel, Tao Jiang, Louis-Félix Nothias, Fabien Gandon,
- Abstract要約: SPARQLクエリ言語は知識グラフ(KG)にアクセスする標準的な方法である。
ベストプラクティスは、KGを有能な質問やサンプルクエリで文書化することを推奨する。
Q$2$Forgeは、KGと対応するSPARQLクエリのための新しい能力質問を生成するという課題に対処する。
- 参考スコア(独自算出の注目度): 6.6757601046766135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The SPARQL query language is the standard method to access knowledge graphs (KGs). However, formulating SPARQL queries is a significant challenge for non-expert users, and remains time-consuming for the experienced ones. Best practices recommend to document KGs with competency questions and example queries to contextualise the knowledge they contain and illustrate their potential applications. In practice, however, this is either not the case or the examples are provided in limited numbers. Large Language Models (LLMs) are being used in conversational agents and are proving to be an attractive solution with a wide range of applications, from simple question-answering about common knowledge to generating code in a targeted programming language. However, training and testing these models to produce high quality SPARQL queries from natural language questions requires substantial datasets of question-query pairs. In this paper, we present Q${}^2$Forge that addresses the challenge of generating new competency questions for a KG and corresponding SPARQL queries. It iteratively validates those queries with human feedback and LLM as a judge. Q${}^2$Forge is open source, generic, extensible and modular, meaning that the different modules of the application (CQ generation, query generation and query refinement) can be used separately, as an integrated pipeline, or replaced by alternative services. The result is a complete pipeline from competency question formulation to query evaluation, supporting the creation of reference query sets for any target KG.
- Abstract(参考訳): SPARQLクエリ言語は知識グラフ(KG)にアクセスする標準的な方法である。
しかしながら、SPARQLクエリの定式化は、専門家でないユーザにとって重要な課題であり、経験豊富なユーザにとっては依然として時間がかかる。
ベストプラクティスは、KGに有能な質問とサンプルクエリを文書化して、それらが持つ知識をコンテキスト化し、潜在的なアプリケーションを説明することを推奨する。
しかし実際には、これはケースではないか、例が限られた数で提供されるかのどちらかである。
大きな言語モデル(LLM)は会話エージェントで使われており、共通知識に関する単純な質問応答からターゲットとするプログラミング言語でのコード生成まで、幅広いアプリケーションで魅力的なソリューションであることが証明されている。
しかしながら、自然言語質問から高品質なSPARQLクエリを生成するためにこれらのモデルをトレーニングし、テストするには、質問クエリペアのかなりのデータセットが必要である。
本稿では,KGと対応するSPARQLクエリに対して,新たなコンピテンシー質問を生成するという課題に対処するQ${}^2$Forgeを提案する。
人間のフィードバックとLLMを審査員として繰り返し検証する。
Q${}^2$Forgeは、オープンソース、ジェネリック、拡張可能、モジュールであり、アプリケーションの異なるモジュール(CQ生成、クエリ生成、クエリリファインメント)を、統合パイプラインとして、あるいは代替サービスとして、別々に使用することができる。
その結果、コンピテンシー質問の定式化からクエリ評価までの完全なパイプラインとなり、任意のターゲットKGに対する参照クエリセットの生成をサポートする。
関連論文リスト
- Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Integrating SPARQL and LLMs for Question Answering over Scholarly Data Sources [0.0]
本稿では,SPARQLクエリを合成し,アルゴリズムを分割・征服する手法と,事前学習した抽出質問応答モデルについて述べる。
まずSPARQLクエリからデータを収集し、次に分割と分割を適用してさまざまな質問タイプとソースを管理し、モデルを使用して個人的な著者の質問を処理する。
Exact MatchとFスコアのメトリクスで評価されたこの手法は、学術的な文脈におけるQAの精度と効率を改善することを約束している。
論文 参考訳(メタデータ) (2024-09-11T14:50:28Z) - Is the House Ready For Sleeptime? Generating and Evaluating Situational Queries for Embodied Question Answering [48.43453390717167]
本研究では,家庭環境における状況問合せ(S-EQA)による身体的質問回答の課題を提示し,解決する。
以前のEQAの作業とは異なり、状況的クエリでは、エージェントが複数のオブジェクト状態を正しく識別し、回答のために状態に関するコンセンサスに到達する必要がある。
本稿では, LLMの出力をラップして, 独自のコンセンサスクエリとそれに対応するコンセンサスオブジェクト情報を生成する新しいPrompt-Generate-Evaluateスキームを提案する。
論文 参考訳(メタデータ) (2024-05-08T00:45:20Z) - Leveraging LLMs in Scholarly Knowledge Graph Question Answering [7.951847862547378]
KGQAは大きな言語モデル(LLM)を活用することで自然言語の質問に答える
SciQAのF1スコアは,Scholarly Knowledge Graph Question Answering Challengeベンチマークの1つである99.0%である。
論文 参考訳(メタデータ) (2023-11-16T12:13:49Z) - In-Context Learning for Knowledge Base Question Answering for Unmanned
Systems based on Large Language Models [43.642717344626355]
我々は,無人システムにおける知識グラフ推論を用いた質問回答コンペティション(CCKS2023)に注目した。
多くのQAタスクにおいてChatGPTやGPT-3のような大規模言語モデル(LLM)が最近成功したことに触発されて、ChatGPTベースのCypher Query Language(CQL)生成フレームワークを提案する。
当社のChatGPTベースのCQL生成フレームワークは、Unmanned Systemsコンペティションのための知識グラフ推論によるCCKS 2023質問回答において、第2位を獲得しました。
論文 参考訳(メタデータ) (2023-11-06T08:52:11Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs [1.1775939485654976]
SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
論文 参考訳(メタデータ) (2021-06-18T08:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。