論文の概要: ReMindRAG: Low-Cost LLM-Guided Knowledge Graph Traversal for Efficient RAG
- arxiv url: http://arxiv.org/abs/2510.13193v2
- Date: Thu, 16 Oct 2025 11:41:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 14:17:28.10009
- Title: ReMindRAG: Low-Cost LLM-Guided Knowledge Graph Traversal for Efficient RAG
- Title(参考訳): ReMindRAG: 効率的なRAGのための低コストLCMガイド付き知識グラフトラバーサル
- Authors: Yikuan Hu, Jifeng Zhu, Lanrui Tang, Chen Huang,
- Abstract要約: 本稿では,Retrieval Augmented Generation(RAG)システムを改善するためのREMINDRAGを提案する。
REMINDRAGは、ノード探索、ノードのエクスプロイト、特にメモリリプレイを特徴とするLLM誘導グラフトラバーサルを採用している。
我々はREMINDRAGの有効性を理論的および実験的に検証し、様々なベンチマークデータセットにおける既存のベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 7.604675261521202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs), with their structured representation capabilities, offer promising avenue for enhancing Retrieval Augmented Generation (RAG) systems, leading to the development of KG-RAG systems. Nevertheless, existing methods often struggle to achieve effective synergy between system effectiveness and cost efficiency, leading to neither unsatisfying performance nor excessive LLM prompt tokens and inference time. To this end, this paper proposes REMINDRAG, which employs an LLM-guided graph traversal featuring node exploration, node exploitation, and, most notably, memory replay, to improve both system effectiveness and cost efficiency. Specifically, REMINDRAG memorizes traversal experience within KG edge embeddings, mirroring the way LLMs "memorize" world knowledge within their parameters, but in a train-free manner. We theoretically and experimentally confirm the effectiveness of REMINDRAG, demonstrating its superiority over existing baselines across various benchmark datasets and LLM backbones. Our code is available at https://github.com/kilgrims/ReMindRAG.
- Abstract(参考訳): 知識グラフ(KGs)は、構造化された表現能力を持ち、検索型拡張生成(RAG)システムを強化するための有望な道を提供し、KG-RAGシステムの開発に繋がる。
しかしながら、既存の手法はシステムの有効性とコスト効率の効果的な相乗効果を達成するのに苦労することが多く、不満足な性能や過剰なLCMプロンプトや推論時間にはならない。
そこで本研究では,ノード探索,ノード利用,特にメモリ再生を特徴とするLLM誘導グラフトラバースを用いたREMINDRAGを提案し,システム効率とコスト効率の両立を図っている。
具体的には、REMINDRAGはKGエッジの埋め込み内での横断的な経験を記憶し、LLMがパラメータ内での世界の知識を「記憶する」方法を反映している。
我々は,REMINDRAGの有効性を理論的,実験的に検証し,様々なベンチマークデータセットやLLMバックボーンにまたがる既存のベースラインよりも優れていることを示す。
私たちのコードはhttps://github.com/kilgrims/ReMindRAG.comで利用可能です。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - RAG-DDR: Optimizing Retrieval-Augmented Generation Using Differentiable Data Rewards [78.74923079748521]
Retrieval-Augmented Generation (RAG) は、外部リソースから知識を取得することで、Large Language Models (LLM) における幻覚を緩和する効果を証明している。
現在のアプローチでは、命令チューニングを使用してLLMを最適化し、検索した知識を活用する能力を改善している。
本稿では,異なるRAGモジュール間でデータ嗜好を整列させることでRAGシステムを訓練するDDR法を提案する。
論文 参考訳(メタデータ) (2024-10-17T12:53:29Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。