論文の概要: Towards LLM-generated explanations for Component-based Knowledge Graph Question Answering Systems
- arxiv url: http://arxiv.org/abs/2508.14553v1
- Date: Wed, 20 Aug 2025 09:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.40714
- Title: Towards LLM-generated explanations for Component-based Knowledge Graph Question Answering Systems
- Title(参考訳): LLMによる知識グラフ質問応答システムの構築に向けて
- Authors: Dennis Schiese, Aleksandr Perevalov, Andreas Both,
- Abstract要約: 本稿では,質問応答システム(QA)について説明する。
本稿では,コンポーネントの入力および出力データフローを動作を表現するためのソースとして考えるアプローチを提案する。
実験では,テンプレートベースの設定(ベースライン)や,異なる設定のLarge Language Models (LLM) を用いて説明を生成する。
- 参考スコア(独自算出の注目度): 46.87155971556644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over time, software systems have reached a level of complexity that makes it difficult for their developers and users to explain particular decisions made by them. In this paper, we focus on the explainability of component-based systems for Question Answering (QA). These components often conduct processes driven by AI methods, in which behavior and decisions cannot be clearly explained or justified, s.t., even for QA experts interpreting the executed process and its results is hard. To address this challenge, we present an approach that considers the components' input and output data flows as a source for representing the behavior and provide explanations for the components, enabling users to comprehend what happened. In the QA framework used here, the data flows of the components are represented as SPARQL queries (inputs) and RDF triples (outputs). Hence, we are also providing valuable insights on verbalization regarding these data types. In our experiments, the approach generates explanations while following template-based settings (baseline) or via the use of Large Language Models (LLMs) with different configurations (automatic generation). Our evaluation shows that the explanations generated via LLMs achieve high quality and mostly outperform template-based approaches according to the users' ratings. Therefore, it enables us to automatically explain the behavior and decisions of QA components to humans while using RDF and SPARQL as a context for explanations.
- Abstract(参考訳): 時間が経つにつれて、ソフトウェアシステムは複雑さのレベルに達し、開発者やユーザが、彼らによってなされた特定の決定を説明するのが難しくなっています。
本稿では,質問応答(QA)のためのコンポーネントベースのシステムの説明可能性に着目した。
これらのコンポーネントは、しばしばAIメソッドによって駆動されるプロセスを実行する。そこでは、実行されたプロセスと結果を理解するQA専門家でさえ、行動と決定を明確に説明または正当化することはできない。
この課題に対処するため、我々は、コンポーネントの入力と出力のデータフローを、動作を表現するためのソースとして考慮し、コンポーネントの説明を提供し、ユーザが何が起きたかを理解することを可能にするアプローチを提案する。
ここで使用されるQAフレームワークでは、コンポーネントのデータフローはSPARQLクエリ(インプット)とRDFトリプル(アウトプット)として表現される。
したがって、これらのデータ型に関する言語化に関する貴重な洞察も提供しています。
実験では、テンプレートベースの設定(ベースライン)や、異なる設定(自動生成)を持つLarge Language Models(LLM)を用いて説明を生成する。
評価の結果,LCMによる説明は高品質で,ユーザ評価によるテンプレートベースのアプローチよりも優れていることがわかった。
したがって、RDFとSPARQLをコンテキストとして使用しながら、QAコンポーネントの動作と決定を自動的に人間に説明することができる。
関連論文リスト
- DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - SPARQL Query Generation with LLMs: Measuring the Impact of Training Data Memorization and Knowledge Injection [81.78173888579941]
大規模言語モデル(LLM)は、質問応答機能の品質を高めるのに適した方法と考えられている。
LLMはWebデータに基づいてトレーニングされており、ベンチマークや知識グラフがトレーニングデータに含まれているかどうかを研究者は制御できない。
本稿では,自然言語質問からSPARQLクエリを生成し,LLMの品質を評価する手法を提案する。
論文 参考訳(メタデータ) (2025-07-18T12:28:08Z) - Interactive Explanations for Reinforcement-Learning Agents [10.17968794823259]
本稿では,ユーザの関心行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型説明システムASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2025-04-07T18:00:50Z) - Explain-Query-Test: Self-Evaluating LLMs Via Explanation and Comprehension Discrepancy [3.0429215246859465]
大規模言語モデル(LLM)は、詳細で一貫性のある説明を生成するのに顕著な習熟性を示した。
生成したコンテンツに対するモデルの理解度を評価するために,自己評価パイプラインを実装した。
この自己評価アプローチを Explain-Query-Test (EQT) と呼ぶ。
論文 参考訳(メタデータ) (2025-01-20T20:07:18Z) - Interactive-KBQA: Multi-Turn Interactions for Knowledge Base Question Answering with Large Language Models [7.399563588835834]
Interactive-KBQAは知識ベース(KB)との直接インタラクションを通じて論理形式を生成するように設計されたフレームワークである
提案手法は,WebQuestionsSP, ComplexWebQuestions, KQA Pro, MetaQAデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:32:18Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - AVIS: Autonomous Visual Information Seeking with Large Language Model
Agent [123.75169211547149]
本稿では,視覚的質問応答フレームワークAVISを提案する。
本手法は,LLM(Large Language Model)を利用して外部ツールの利用を動的に強化する。
AVIS は Infoseek や OK-VQA などの知識集約型視覚質問応答ベンチマークの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-06-13T20:50:22Z) - ASQ-IT: Interactive Explanations for Reinforcement-Learning Agents [7.9603223299524535]
本稿では,ユーザが興味のある行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型ツールASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2023-01-24T11:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。