論文の概要: Chatty-KG: A Multi-Agent AI System for On-Demand Conversational Question Answering over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2511.20940v1
- Date: Wed, 26 Nov 2025 00:18:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.90512
- Title: Chatty-KG: A Multi-Agent AI System for On-Demand Conversational Question Answering over Knowledge Graphs
- Title(参考訳): Chatty-KG: 知識グラフに関するオンデマンド会話質問応答のためのマルチエージェントAIシステム
- Authors: Reham Omar, Abdelghny Orogat, Ibrahim Abdelaziz, Omij Mangukiya, Panos Kalnis, Essam Mansour,
- Abstract要約: Chatty-KGは、知識グラフ上の対話型QAのためのモジュール型マルチエージェントシステムである。
LLMは自然とコンテキストを意識した会話を可能にするが、プライベートおよび動的KGへの直接アクセスはできない。
また,Chatty-KGは,シングルターンおよびマルチターンの設定において,最先端のベースラインを著しく上回ることを示す。
- 参考スコア(独自算出の注目度): 8.213903469705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conversational Question Answering over Knowledge Graphs (KGs) combines the factual grounding of KG-based QA with the interactive nature of dialogue systems. KGs are widely used in enterprise and domain applications to provide structured, evolving, and reliable knowledge. Large language models (LLMs) enable natural and context-aware conversations, but lack direct access to private and dynamic KGs. Retrieval-augmented generation (RAG) systems can retrieve graph content but often serialize structure, struggle with multi-turn context, and require heavy indexing. Traditional KGQA systems preserve structure but typically support only single-turn QA, incur high latency, and struggle with coreference and context tracking. To address these limitations, we propose Chatty-KG, a modular multi-agent system for conversational QA over KGs. Chatty-KG combines RAG-style retrieval with structured execution by generating SPARQL queries through task-specialized LLM agents. These agents collaborate for contextual interpretation, dialogue tracking, entity and relation linking, and efficient query planning, enabling accurate and low-latency translation of natural questions into executable queries. Experiments on large and diverse KGs show that Chatty-KG significantly outperforms state-of-the-art baselines in both single-turn and multi-turn settings, achieving higher F1 and P@1 scores. Its modular design preserves dialogue coherence and supports evolving KGs without fine-tuning or pre-processing. Evaluations with commercial (e.g., GPT-4o, Gemini-2.0) and open-weight (e.g., Phi-4, Gemma 3) LLMs confirm broad compatibility and stable performance. Overall, Chatty-KG unifies conversational flexibility with structured KG grounding, offering a scalable and extensible approach for reliable multi-turn KGQA.
- Abstract(参考訳): 会話質問 知識グラフ(KGs)は、KGベースのQAの現実的な基礎と対話システムの対話性を組み合わせたものである。
KGは、構造化され、進化し、信頼できる知識を提供するために、エンタープライズおよびドメインアプリケーションで広く使われている。
大規模言語モデル(LLM)は、自然とコンテキストを意識した会話を可能にするが、プライベートおよび動的KGに直接アクセスできない。
Retrieval-augmented Generation (RAG) システムはグラフコンテンツを検索できるが、しばしば構造をシリアライズする。
従来のKGQAシステムは構造を保存するが、通常はシングルターンQAのみをサポートし、レイテンシが高く、コア参照とコンテキストトラッキングに苦労する。
これらの制約に対処するため,KG上の対話型QAのためのモジュール型マルチエージェントシステムChatty-KGを提案する。
Chatty-KGは、RAGスタイルの検索と、タスク特化LDMエージェントを介してSPARQLクエリを生成する構造化実行を組み合わせる。
これらのエージェントは、コンテキスト解釈、対話追跡、エンティティとリレーションのリンク、および効率的なクエリ計画のために協力し、自然な質問の正確かつ低レイテンシなクエリを実行可能なクエリに変換する。
大規模かつ多様なKGの実験では、Chatty-KGはシングルターンとマルチターンの両方で最先端のベースラインを著しく上回り、より高いF1とP@1のスコアを達成している。
モジュール設計は対話コヒーレンスを保ち、微調整や前処理なしでKGの進化をサポートする。
商用 (e , GPT-4o, Gemini-2.0) とオープンウェイト (e , Phi-4, Gemma 3) LLM による評価は、幅広い互換性と安定した性能を確認している。
全体として、Chatty-KGは構造化されたKGグラウンドで会話の柔軟性を統一し、信頼性の高いマルチターンKGQAに対してスケーラブルで拡張可能なアプローチを提供する。
関連論文リスト
- Efficient and Transferable Agentic Knowledge Graph RAG via Reinforcement Learning [18.9814789695716]
知識グラフ検索強化世代(KG-RAG)は、大きな言語モデル(LLM)と構造化された検証可能な知識グラフ(KG)を結合して幻覚を減らし、推論トレースを公開する。
我々は、強化学習(RL)によるエージェントKG検索増強世代(KG-RAG)フレームワークであるKG-R1を紹介する。
KG-R1は、KGと相互作用する単一のエージェントを環境として利用し、各ステップで学習し、取得した情報をその推論と生成に組み込む。
論文 参考訳(メタデータ) (2025-09-30T15:14:24Z) - Beyond Completion: A Foundation Model for General Knowledge Graph Reasoning [42.93788746991493]
MERRYは一般知識グラフ推論の基礎モデルである。
テキストと構造的モダリティのギャップを埋めるためのアーキテクチャを符号化する条件付きメッセージパッシング(CMP)を提案する。
28のデータセットに対する総合的な評価は、ほとんどのシナリオでMERRYが既存のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-05-28T03:21:28Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - ConvKGYarn: Spinning Configurable and Scalable Conversational Knowledge Graph QA datasets with Large Language Models [47.27645876623092]
本稿では、最新のKGQAデータセットを生成するスケーラブルな方法であるConvKGYarnを提案する。
同じKGファクトセットに異なる構成を持つ会話型KGQA集合のモデル挙動を探索する。
論文 参考訳(メタデータ) (2024-08-12T06:48:43Z) - Learning Federated Neural Graph Databases for Answering Complex Queries from Distributed Knowledge Graphs [53.03085605769093]
我々は、マルチソースグラフデータに対するプライバシ保護推論を促進する先駆的な体系的フレームワークであるFederated Neural Graph DataBase(FedNGDB)を学習することを提案する。
FedNGDBは、フェデレートされた学習を活用して、複数のソースにわたるグラフ表現を協調的に学習し、エンティティ間の関係を強化し、グラフデータの全体的な品質を改善する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。