論文の概要: Chatty-KG: A Multi-Agent AI System for On-Demand Conversational Question Answering over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2511.20940v1
- Date: Wed, 26 Nov 2025 00:18:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.90512
- Title: Chatty-KG: A Multi-Agent AI System for On-Demand Conversational Question Answering over Knowledge Graphs
- Title(参考訳): Chatty-KG: 知識グラフに関するオンデマンド会話質問応答のためのマルチエージェントAIシステム
- Authors: Reham Omar, Abdelghny Orogat, Ibrahim Abdelaziz, Omij Mangukiya, Panos Kalnis, Essam Mansour,
- Abstract要約: Chatty-KGは、知識グラフ上の対話型QAのためのモジュール型マルチエージェントシステムである。
LLMは自然とコンテキストを意識した会話を可能にするが、プライベートおよび動的KGへの直接アクセスはできない。
また,Chatty-KGは,シングルターンおよびマルチターンの設定において,最先端のベースラインを著しく上回ることを示す。
- 参考スコア(独自算出の注目度): 8.213903469705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conversational Question Answering over Knowledge Graphs (KGs) combines the factual grounding of KG-based QA with the interactive nature of dialogue systems. KGs are widely used in enterprise and domain applications to provide structured, evolving, and reliable knowledge. Large language models (LLMs) enable natural and context-aware conversations, but lack direct access to private and dynamic KGs. Retrieval-augmented generation (RAG) systems can retrieve graph content but often serialize structure, struggle with multi-turn context, and require heavy indexing. Traditional KGQA systems preserve structure but typically support only single-turn QA, incur high latency, and struggle with coreference and context tracking. To address these limitations, we propose Chatty-KG, a modular multi-agent system for conversational QA over KGs. Chatty-KG combines RAG-style retrieval with structured execution by generating SPARQL queries through task-specialized LLM agents. These agents collaborate for contextual interpretation, dialogue tracking, entity and relation linking, and efficient query planning, enabling accurate and low-latency translation of natural questions into executable queries. Experiments on large and diverse KGs show that Chatty-KG significantly outperforms state-of-the-art baselines in both single-turn and multi-turn settings, achieving higher F1 and P@1 scores. Its modular design preserves dialogue coherence and supports evolving KGs without fine-tuning or pre-processing. Evaluations with commercial (e.g., GPT-4o, Gemini-2.0) and open-weight (e.g., Phi-4, Gemma 3) LLMs confirm broad compatibility and stable performance. Overall, Chatty-KG unifies conversational flexibility with structured KG grounding, offering a scalable and extensible approach for reliable multi-turn KGQA.
- Abstract(参考訳): 会話質問 知識グラフ(KGs)は、KGベースのQAの現実的な基礎と対話システムの対話性を組み合わせたものである。
KGは、構造化され、進化し、信頼できる知識を提供するために、エンタープライズおよびドメインアプリケーションで広く使われている。
大規模言語モデル(LLM)は、自然とコンテキストを意識した会話を可能にするが、プライベートおよび動的KGに直接アクセスできない。
Retrieval-augmented Generation (RAG) システムはグラフコンテンツを検索できるが、しばしば構造をシリアライズする。
従来のKGQAシステムは構造を保存するが、通常はシングルターンQAのみをサポートし、レイテンシが高く、コア参照とコンテキストトラッキングに苦労する。
これらの制約に対処するため,KG上の対話型QAのためのモジュール型マルチエージェントシステムChatty-KGを提案する。
Chatty-KGは、RAGスタイルの検索と、タスク特化LDMエージェントを介してSPARQLクエリを生成する構造化実行を組み合わせる。
これらのエージェントは、コンテキスト解釈、対話追跡、エンティティとリレーションのリンク、および効率的なクエリ計画のために協力し、自然な質問の正確かつ低レイテンシなクエリを実行可能なクエリに変換する。
大規模かつ多様なKGの実験では、Chatty-KGはシングルターンとマルチターンの両方で最先端のベースラインを著しく上回り、より高いF1とP@1のスコアを達成している。
モジュール設計は対話コヒーレンスを保ち、微調整や前処理なしでKGの進化をサポートする。
商用 (e , GPT-4o, Gemini-2.0) とオープンウェイト (e , Phi-4, Gemma 3) LLM による評価は、幅広い互換性と安定した性能を確認している。
全体として、Chatty-KGは構造化されたKGグラウンドで会話の柔軟性を統一し、信頼性の高いマルチターンKGQAに対してスケーラブルで拡張可能なアプローチを提供する。
関連論文リスト
- Efficient and Transferable Agentic Knowledge Graph RAG via Reinforcement Learning [18.9814789695716]
知識グラフ検索強化世代(KG-RAG)は、大きな言語モデル(LLM)と構造化された検証可能な知識グラフ(KG)を結合して幻覚を減らし、推論トレースを公開する。
我々は、強化学習(RL)によるエージェントKG検索増強世代(KG-RAG)フレームワークであるKG-R1を紹介する。
KG-R1は、KGと相互作用する単一のエージェントを環境として利用し、各ステップで学習し、取得した情報をその推論と生成に組み込む。
論文 参考訳(メタデータ) (2025-09-30T15:14:24Z) - KG-CQR: Leveraging Structured Relation Representations in Knowledge Graphs for Contextual Query Retrieval [5.263064605350636]
我々は、コンテキストクエリ検索(CQR)のための新しいフレームワークであるKG-CQRを提案する。
KG-CQRは、構造化された関係表現によるクエリエンリッチメントに焦点を当て、関連するKGサブグラフを抽出して、セマンティックにリッチなクエリコンテキストを生成する。
RAGBenchとMultiHop-RAGデータセットの実験結果は、KG-CQRの優れたパフォーマンスを示し、mAPが4-6%改善され、強力なベースラインモデルよりもRecall@25が2-3%改善された。
論文 参考訳(メタデータ) (2025-08-28T04:37:15Z) - Diagnosing and Addressing Pitfalls in KG-RAG Datasets: Toward More Reliable Benchmarking [63.84117489519164]
知識グラフ質問 回答システムは、複雑なマルチホップ推論を評価するために高品質なベンチマークに依存している。
広く使われているにもかかわらず、WebQSPやCWQのような一般的なデータセットは、重要な品質問題に悩まされている。
我々はこれらの落とし穴を体系的に解決するLLM-in-the-loopフレームワークであるKGQAGenを紹介する。
本研究は,KGQA評価を推し進めるスケーラブルなフレームワークとして,より厳密なベンチマーク構築とKGQAGenの位置づけを提唱する。
論文 参考訳(メタデータ) (2025-05-29T14:44:52Z) - Beyond Completion: A Foundation Model for General Knowledge Graph Reasoning [42.93788746991493]
MERRYは一般知識グラフ推論の基礎モデルである。
テキストと構造的モダリティのギャップを埋めるためのアーキテクチャを符号化する条件付きメッセージパッシング(CMP)を提案する。
28のデータセットに対する総合的な評価は、ほとんどのシナリオでMERRYが既存のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-05-28T03:21:28Z) - Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - Dialogue Benchmark Generation from Knowledge Graphs with Cost-Effective Retrieval-Augmented LLMs [0.8772713588571283]
Chatty-Genは、対話ベンチマークのための新しい多段階検索拡張生成プラットフォームである。
Chatty-Genは生成プロセスを管理可能なステージに分解し、自動検証にアサーションルールを使用する。
いくつかの実および大のKGを用いた実験により、Chatty-Genは最先端システムよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-17T02:48:29Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - ConvKGYarn: Spinning Configurable and Scalable Conversational Knowledge Graph QA datasets with Large Language Models [47.27645876623092]
本稿では、最新のKGQAデータセットを生成するスケーラブルな方法であるConvKGYarnを提案する。
同じKGファクトセットに異なる構成を持つ会話型KGQA集合のモデル挙動を探索する。
論文 参考訳(メタデータ) (2024-08-12T06:48:43Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Learning Federated Neural Graph Databases for Answering Complex Queries from Distributed Knowledge Graphs [53.03085605769093]
我々は、マルチソースグラフデータに対するプライバシ保護推論を促進する先駆的な体系的フレームワークであるFederated Neural Graph DataBase(FedNGDB)を学習することを提案する。
FedNGDBは、フェデレートされた学習を活用して、複数のソースにわたるグラフ表現を協調的に学習し、エンティティ間の関係を強化し、グラフデータの全体的な品質を改善する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。