論文の概要: Text-to-SPARQL Goes Beyond English: Multilingual Question Answering Over Knowledge Graphs through Human-Inspired Reasoning
- arxiv url: http://arxiv.org/abs/2507.16971v1
- Date: Tue, 22 Jul 2025 19:23:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.748879
- Title: Text-to-SPARQL Goes Beyond English: Multilingual Question Answering Over Knowledge Graphs through Human-Inspired Reasoning
- Title(参考訳): Text-to-SPARQLが英語を超越する:ヒューマンインスパイアされた推論を通じて知識グラフを問う多言語質問
- Authors: Aleksandr Perevalov, Andreas Both,
- Abstract要約: mKGQAgentは、自然言語の質問をSPARQLクエリに変換し、モジュール化された解釈可能なサブタスクに変換するタスクを分解する。
2025年のText2SPARQLチャレンジにおいて、DBpediaとCorporateベースのKGQAベンチマークに基づいて評価され、私たちのアプローチは、他の参加者の中で第一に行われました。
- 参考スコア(独自算出の注目度): 51.203811759364925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accessing knowledge via multilingual natural-language interfaces is one of the emerging challenges in the field of information retrieval and related ones. Structured knowledge stored in knowledge graphs can be queried via a specific query language (e.g., SPARQL). Therefore, one needs to transform natural-language input into a query to fulfill an information need. Prior approaches mostly focused on combining components (e.g., rule-based or neural-based) that solve downstream tasks and come up with an answer at the end. We introduce mKGQAgent, a human-inspired framework that breaks down the task of converting natural language questions into SPARQL queries into modular, interpretable subtasks. By leveraging a coordinated LLM agent workflow for planning, entity linking, and query refinement - guided by an experience pool for in-context learning - mKGQAgent efficiently handles multilingual KGQA. Evaluated on the DBpedia- and Corporate-based KGQA benchmarks within the Text2SPARQL challenge 2025, our approach took first place among the other participants. This work opens new avenues for developing human-like reasoning systems in multilingual semantic parsing.
- Abstract(参考訳): 多言語自然言語インタフェースを通じて知識にアクセスすることは、情報検索と関連する分野における新たな課題の1つである。
知識グラフに格納された構造化知識は、特定のクエリ言語(例えば、SPARQL)を介してクエリすることができる。
したがって、自然言語入力をクエリに変換して、必要な情報を満たす必要がある。
それまでのアプローチでは、ダウンストリームタスクを解決し、最後に答えを導き出すコンポーネント(ルールベース、ニューラルネットワークなど)の組み合わせに重点を置いていた。
我々は、自然言語質問をSPARQLクエリに変換するタスクをモジュラーで解釈可能なサブタスクに変換する、人間にインスパイアされたフレームワークであるmKGQAgentを紹介した。
協調LLMエージェントワークフローを計画、エンティティリンク、クエリリファインメントに活用することで、mKGQAgentはマルチリンガルなKGQAを効率的に処理する。
2025年のText2SPARQLチャレンジにおいて、DBpediaとCorporateベースのKGQAベンチマークに基づいて評価され、私たちのアプローチは、他の参加者の中で第一に行われました。
この研究は、多言語意味解析における人間のような推論システムを開発するための新しい道を開く。
関連論文リスト
- Q${}^2$Forge: Minting Competency Questions and SPARQL Queries for Question-Answering Over Knowledge Graphs [6.6757601046766135]
SPARQLクエリ言語は知識グラフ(KG)にアクセスする標準的な方法である。
ベストプラクティスは、KGを有能な質問やサンプルクエリで文書化することを推奨する。
Q$2$Forgeは、KGと対応するSPARQLクエリのための新しい能力質問を生成するという課題に対処する。
論文 参考訳(メタデータ) (2025-05-19T13:26:51Z) - MST5 -- Multilingual Question Answering over Knowledge Graphs [1.6470999044938401]
知識グラフ質問回答(KGQA)は、自然言語を用いたグラフベースモデルに格納された膨大な知識のクエリを単純化する。
既存の多言語KGQAシステムは、英語システムに匹敵する性能を達成するための課題に直面している。
本稿では,言語コンテキストとエンティティ情報を言語モデルの処理パイプラインに直接組み込むことで,多言語KGQAシステムを強化するための簡易なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-08T15:37:51Z) - Pre-training Cross-lingual Open Domain Question Answering with Large-scale Synthetic Supervision [44.04243892727856]
言語間のオープンドメイン質問応答は複雑な問題である。
CLQAは単一エンコーダデコーダモデルを用いて処理可能であることを示す。
ウィキペディア内の言語間リンク構造を利用した自己教師型手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T11:42:29Z) - NLQxform: A Language Model-based Question to SPARQL Transformer [8.698533396991554]
本稿では,NLQxform と呼ばれる質問応答システムを提案する。
NLQxformでは、自然言語の質問で複雑なクエリ意図を表現できる。
トランスフォーマーベースの言語モデル、すなわちBARTは、質問を標準のSPARQLクエリに変換するために使用される。
論文 参考訳(メタデータ) (2023-11-08T21:41:45Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - SPBERT: Pre-training BERT on SPARQL Queries for End-to-end Question
Answering over Knowledge Graphs [1.1775939485654976]
SPBERTは、大規模なSPARQLクエリログを事前トレーニングしたTransformerベースの言語モデルである。
本研究では,SPBERTとエンコーダデコーパスアーキテクチャを知識ベースQAコーパスに適用する方法について検討する。
論文 参考訳(メタデータ) (2021-06-18T08:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。