論文の概要: Efficient and Transferable Agentic Knowledge Graph RAG via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2509.26383v2
- Date: Wed, 01 Oct 2025 02:16:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 12:11:26.812479
- Title: Efficient and Transferable Agentic Knowledge Graph RAG via Reinforcement Learning
- Title(参考訳): 強化学習による効率的かつ伝達可能なエージェント知識グラフRAG
- Authors: Jinyeop Song, Song Wang, Julian Shun, Yada Zhu,
- Abstract要約: 知識グラフ検索強化世代(KG-RAG)は、大きな言語モデル(LLM)と構造化された検証可能な知識グラフ(KG)を結合して幻覚を減らし、推論トレースを公開する。
我々は、強化学習(RL)によるエージェントKG検索増強世代(KG-RAG)フレームワークであるKG-R1を紹介する。
KG-R1は、KGと相互作用する単一のエージェントを環境として利用し、各ステップで学習し、取得した情報をその推論と生成に組み込む。
- 参考スコア(独自算出の注目度): 18.9814789695716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge-graph retrieval-augmented generation (KG-RAG) couples large language models (LLMs) with structured, verifiable knowledge graphs (KGs) to reduce hallucinations and expose reasoning traces. However, many KG-RAG systems compose multiple LLM modules (e.g planning, reasoning, and responding), inflating inference cost and binding behavior to a specific target KG. To address this, we introduce KG-R1, an agentic KG retrieval-augmented generation (KG-RAG) framework through reinforcement learning (RL). KG-R1 utilizes a single agent that interacts with KGs as its environment, learning to retrieve at each step and incorporating the retrieved information into its reasoning and generation. The process is optimized through end-to-end RL. In controlled experiments across Knowledge-Graph Question Answering (KGQA) benchmarks, our method demonstrates both efficiency and transferability: Using Qwen-2.5-3B, KG-R1 improves answer accuracy with fewer generation tokens than prior multi-module workflow methods that use larger foundation or fine-tuned models. Furthermore, KG-R1 enables plug and play: after training, it maintains strong accuracy on new KGs without modification. These properties make KG-R1 a promising KG-RAG framework for real-world deployment. Our code is publicly available at https://github.com/Jinyeop3110/KG-R1.
- Abstract(参考訳): 知識グラフ検索強化世代(KG-RAG)は、大きな言語モデル(LLM)と構造化された検証可能な知識グラフ(KG)を結合して幻覚を減らし、推論トレースを公開する。
しかしながら、多くのKG-RAGシステムは複数のLLMモジュール(例えば、計画、推論、応答)を構成し、推論コストと特定のターゲットKGへの結合挙動を膨らませる。
そこで本研究では,強化学習(RL)によるエージェントKG検索強化生成(KG-RAG)フレームワークであるKG-R1を紹介する。
KG-R1は、KGと相互作用する単一のエージェントを環境として利用し、各ステップで学習し、取得した情報をその推論と生成に組み込む。
プロセスはエンドツーエンドのRLによって最適化される。
Qwen-2.5-3Bを用いて、KG-R1は、より大規模な基礎や微調整されたモデルを用いた従来のマルチモジュールワークフロー手法よりも少ない生成トークンで応答精度を向上させる。
さらに、KG-R1はプラグアンドプレイが可能で、トレーニング後、修正することなく新しいKGに対して強い精度を維持する。
これらの特性により、KG-R1は現実世界のデプロイのための有望なKG-RAGフレームワークとなる。
私たちのコードはhttps://github.com/Jinyeop3110/KG-R1.comで公開されています。
関連論文リスト
- KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs [66.35046942874737]
KG-Infused RAGは、拡散活性化を実装するためにKGをRAGシステムに統合するフレームワークである。
KG-Infused RAGはKGの事実を検索し、クエリを拡張し、コーパスと構造化された事実を組み合わせることで生成を強化する。
論文 参考訳(メタデータ) (2025-06-11T09:20:02Z) - Walk&Retrieve: Simple Yet Effective Zero-shot Retrieval-Augmented Generation via Knowledge Graph Walks [2.717314422130497]
大きな言語モデル(LLM)は印象的な推論能力を示してきたが、幻覚や時代遅れの知識に悩まされることが多い。
知識グラフ(KG)をベースとしたRetrieval-Augmented Generation(RAG)は、知識ベースから構造化された外部情報に応答を基盤として、これらの欠点を修復する。
しかしながら、多くのKGベースのRAGアプローチでは、(i)KGとテキスト表現の整合、(ii)検索精度と効率のバランス、(iii)動的に更新されたKGに適応する。
論文 参考訳(メタデータ) (2025-05-22T16:11:35Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。