論文の概要: Agentic SPARQL: Evaluating SPARQL-MCP-powered Intelligent Agents on the Federated KGQA Benchmark
- arxiv url: http://arxiv.org/abs/2603.06582v1
- Date: Tue, 20 Jan 2026 13:17:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.382118
- Title: Agentic SPARQL: Evaluating SPARQL-MCP-powered Intelligent Agents on the Federated KGQA Benchmark
- Title(参考訳): Agentic SPARQL: フェデレートKGQAベンチマークによるSPARQL-MCPベースのインテリジェントエージェントの評価
- Authors: Daniel Dobriy, Frederik Bauer, Amr Azzam, Debayan Banerjee, Axel Polleres,
- Abstract要約: 我々は,既存の知識グラフ質問回答ベンチマークをエージェント型知識グラフ質問回答(FKGQA)に拡張する方法について議論する。
我々の研究は、エージェントAIと実りある組み合わせに向けた自動SPARQLクエリフェデレーションの以前の作業を補完し、拡張します。
- 参考スコア(独自算出の注目度): 2.2509387878255818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard protocols such as the Model Context Protocol (MCP) that allow LLMs to connect to tools have recently boosted "agentic" AI applications, which, powered by LLMs' planning capabilities, promise to solve complex tasks with the access of external tools and data sources. In this context, publicly available SPARQL endpoints offer a natural connection to combine various data sources through MCP by (a) implementing a standardised protocol and query language, (b) standardised metadata formats, and (c) the native capability to federate queries. In the present paper, we explore the potential of SPARQL-MCP-based intelligent agents to facilitate federated SPARQL querying: firstly, we discuss how to extend an existing Knowledge Graph Question Answering benchmark towards agentic federated Knowledge Graph Question Answering (FKGQA); secondly, we implement and evaluate the ability of integrating SPARQL federation with LLM agents via MCP (incl. endpoint discovery/source selection, schema exploration, and query formulation), comparing different architectural options against the extended benchmark. Our work complements and extends prior work on automated SPARQL query federation towards fruitful combinations with agentic AI.
- Abstract(参考訳): LLMをツールに接続できるMCP(Model Context Protocol)のような標準プロトコルは、最近、LLMの計画能力によって、外部ツールやデータソースへのアクセスによる複雑なタスクの解決を約束する"アジェンティック"なAIアプリケーションを強化した。
このコンテキストでは、公開可能なSPARQLエンドポイントは、MPPを介してさまざまなデータソースを結合する自然な接続を提供する。
(a)標準化されたプロトコルとクエリ言語を実装する。
(b)標準化されたメタデータフォーマット、及び
(c) クエリをフェデレートするネイティブ機能。
本稿では、SPARQL-MCPベースのインテリジェントエージェントがフェデレートされたSPARQLクエリを促進する可能性について検討する。まず、既存の知識グラフ質問回答ベンチマークをエージェントフェデレートされた知識グラフ質問回答(FKGQA)へ拡張する方法、次に、MPP(エンドポイント発見/ソース選択、スキーマ探索、クエリ定式化を含む)を介してLLMエージェントとSPARQLフェデレーションを統合する機能の実装と評価を行い、拡張されたベンチマークと異なるアーキテクチャオプションの比較を行う。
我々の研究は、エージェントAIと実りある組み合わせに向けた自動SPARQLクエリフェデレーションの以前の作業を補完し、拡張します。
関連論文リスト
- SPARQL-LLM: Real-Time SPARQL Query Generation from Natural Language Questions [1.3856736555085554]
SPARQL-LLMは、軽量メタデータを利用して、自然言語テキストからSPARQLクエリを生成する、オープンソースでトリプルストアに依存しないアプローチである。
SPARQL-LLMは、チャレンジに参加している他のシステムよりも最大36倍高速で、1問あたり最大0.01ドルのコストがかかることを示す。
論文 参考訳(メタデータ) (2025-12-16T10:39:46Z) - FIRESPARQL: A LLM-based Framework for SPARQL Query Generation over Scholarly Knowledge Graphs [0.5120567378386615]
我々は、RAGとSPARQLクエリ修正層を介してオプションコンテキストで、微調整LDMをコアコンポーネントとしてサポートするモジュラーフレームワークを提案する。
BLEUとROUGEのメトリクスを用いてクエリ精度を測定し、緩和された正確なマッチング(RelaxedEM)を用いてクエリ結果の精度を測定する。
実験結果から,クエリの精度は0.90 ROUGE-L,テストセットの精度は0.85 RelaxedEMに達した。
論文 参考訳(メタデータ) (2025-08-14T09:08:50Z) - Text-to-SPARQL Goes Beyond English: Multilingual Question Answering Over Knowledge Graphs through Human-Inspired Reasoning [51.203811759364925]
mKGQAgentは、自然言語の質問をSPARQLクエリに変換し、モジュール化された解釈可能なサブタスクに変換するタスクを分解する。
2025年のText2SPARQLチャレンジにおいて、DBpediaとCorporateベースのKGQAベンチマークに基づいて評価され、私たちのアプローチは、他の参加者の中で第一に行われました。
論文 参考訳(メタデータ) (2025-07-22T19:23:03Z) - SPARQL Query Generation with LLMs: Measuring the Impact of Training Data Memorization and Knowledge Injection [81.78173888579941]
大規模言語モデル(LLM)は、質問応答機能の品質を高めるのに適した方法と考えられている。
LLMはWebデータに基づいてトレーニングされており、ベンチマークや知識グラフがトレーニングデータに含まれているかどうかを研究者は制御できない。
本稿では,自然言語質問からSPARQLクエリを生成し,LLMの品質を評価する手法を提案する。
論文 参考訳(メタデータ) (2025-07-18T12:28:08Z) - The benefits of query-based KGQA systems for complex and temporal questions in LLM era [55.20230501807337]
大規模言語モデルは質問回答(QA)に優れていますが、マルチホップ推論や時間的質問には苦戦しています。
クエリベースの知識グラフ QA (KGQA) は、直接回答の代わりに実行可能なクエリを生成するモジュール形式の代替手段を提供する。
WikiData QAのためのマルチステージクエリベースのフレームワークについて検討し、課題のあるマルチホップと時間ベンチマークのパフォーマンスを向上させるマルチステージアプローチを提案する。
論文 参考訳(メタデータ) (2025-07-16T06:41:03Z) - Unleashing the Power of LLMs in Dense Retrieval with Query Likelihood Modeling [69.84963245729826]
本稿では,検索者の後続のコントラスト学習のためのバックボーンを強化するために,QLの補助的タスクを提案する。
注意ブロック(AB)と文書破壊(DC)の2つの重要なコンポーネントを組み込んだモデルを紹介します。
論文 参考訳(メタデータ) (2025-04-07T16:03:59Z) - Assessing SPARQL capabilities of Large Language Models [0.0]
我々は、SPARQLで動作するLarge Language Modelsのアウトオブザボックス機能の測定に重点を置いています。
LLM-KG-Benchフレームワークにベンチマークタスクを実装し,自動実行と評価を行う。
この結果から,SPARQL SELECTクエリの処理はLLMでは依然として困難であることが示唆された。
論文 参考訳(メタデータ) (2024-09-09T08:29:39Z) - AutoQGS: Auto-Prompt for Low-Resource Knowledge-based Question
Generation from SPARQL [18.019353543946913]
本研究では,知識に基づく質問生成(KBQG)の課題について検討する。
従来のKBQGは知識グラフのファクトトリプルから質問を生成するが、これはSPARQLの集約や比較のような複雑な操作を表現できない。
本研究では,SPARQLをNL記述に書き換えるために,大規模教師なしデータに基づいて訓練された自動プロンプタを提案する。
論文 参考訳(メタデータ) (2022-08-26T06:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。