論文の概要: EraRAG: Efficient and Incremental Retrieval Augmented Generation for Growing Corpora
- arxiv url: http://arxiv.org/abs/2506.20963v1
- Date: Thu, 26 Jun 2025 03:01:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.950673
- Title: EraRAG: Efficient and Incremental Retrieval Augmented Generation for Growing Corpora
- Title(参考訳): EraRAG:成長コーパスの効率的・高次検索生成
- Authors: Fangyuan Zhang, Zhengjun Huang, Yingli Zhou, Qintian Guo, Zhixun Li, Wensheng Luo, Di Jiang, Yixiang Fang, Xiaofang Zhou,
- Abstract要約: グラフベースのRetrieval-Augmented Generation (Graph-RAG)は、外部コーパス上の検索を構造化することにより、大きな言語モデル(LLM)を強化する。
高速でスケーラブルな動的更新をサポートする新しい多層グラフ-RAGフレームワークであるEraRAGを紹介する。
提案手法は,超平面に基づく局所性感性ハッシュ(LSH)を利用して,元のコーパスを階層グラフ構造に分割,整理する。
- 参考スコア(独自算出の注目度): 20.890240791042302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph-based Retrieval-Augmented Generation (Graph-RAG) enhances large language models (LLMs) by structuring retrieval over an external corpus. However, existing approaches typically assume a static corpus, requiring expensive full-graph reconstruction whenever new documents arrive, limiting their scalability in dynamic, evolving environments. To address these limitations, we introduce EraRAG, a novel multi-layered Graph-RAG framework that supports efficient and scalable dynamic updates. Our method leverages hyperplane-based Locality-Sensitive Hashing (LSH) to partition and organize the original corpus into hierarchical graph structures, enabling efficient and localized insertions of new data without disrupting the existing topology. The design eliminates the need for retraining or costly recomputation while preserving high retrieval accuracy and low latency. Experiments on large-scale benchmarks demonstrate that EraRag achieves up to an order of magnitude reduction in update time and token consumption compared to existing Graph-RAG systems, while providing superior accuracy performance. This work offers a practical path forward for RAG systems that must operate over continually growing corpora, bridging the gap between retrieval efficiency and adaptability. Our code and data are available at https://github.com/EverM0re/EraRAG-Official.
- Abstract(参考訳): グラフベースのRetrieval-Augmented Generation (Graph-RAG)は、外部コーパス上の検索を構造化することにより、大きな言語モデル(LLM)を強化する。
しかし、既存のアプローチは静的コーパスを前提としており、新しいドキュメントが到着するたびに高価なフルグラフの再構築を必要とし、動的で進化する環境におけるスケーラビリティを制限している。
これらの制限に対処するために、効率よくスケーラブルな動的更新をサポートする新しい多層グラフ-RAGフレームワークであるEraRAGを紹介する。
提案手法では,超平面型局所性感性ハッシュ(LSH)を用いて,元のコーパスを階層的なグラフ構造に分割,整理し,既存のトポロジを乱すことなく,新しいデータの効率的な局所的挿入を可能にする。
この設計では、高い検索精度と低レイテンシを保ちながら、再トレーニングやコストのかかる再計算の必要性を排除している。
大規模なベンチマーク実験により、EraRagは既存のGraph-RAGシステムと比較して更新時間とトークン消費の桁違いの削減を実現し、精度が向上した。
この研究は、連続的に成長するコーパスを乗り越え、検索効率と適応性の間のギャップを埋める必要があるRAGシステムにとって実践的な道筋を提供する。
私たちのコードとデータはhttps://github.com/EverM0re/EraRAG-Official.comで公開されています。
関連論文リスト
- E^2GraphRAG: Streamlining Graph-based RAG for High Efficiency and Effectiveness [15.829377965705746]
本稿では,グラフベースのRAGフレームワークであるE2GraphRAGを提案する。
E2GraphRAGはGraphRAGの最大10倍のインデックス化を実現し、LightRAGの100倍の高速化を実現している。
論文 参考訳(メタデータ) (2025-05-30T05:27:40Z) - NodeRAG: Structuring Graph-based RAG with Heterogeneous Nodes [25.173078967881803]
Retrieval-augmented Generation (RAG)は、大規模な言語モデルに対して、外部およびプライベートコーパスへのアクセスを許可する。
現在のグラフベースのRAGアプローチは、グラフ構造の設計をほとんど優先順位付けしない。
不適切な設計のグラフは、多様なグラフアルゴリズムのシームレスな統合を妨げるだけでなく、ワークフローの不整合をもたらす。
異種グラフ構造を導入したグラフ中心のフレームワークであるNodeRAGを提案する。
論文 参考訳(メタデータ) (2025-04-15T18:24:00Z) - RGL: A Graph-Centric, Modular Framework for Efficient Retrieval-Augmented Generation on Graphs [58.10503898336799]
完全なRAGパイプラインをシームレスに統合するモジュラーフレームワークであるRAG-on-Graphs Library(RGL)を紹介した。
RGLは、さまざまなグラフフォーマットをサポートし、必須コンポーネントの最適化実装を統合することで、重要な課題に対処する。
評価の結果,RGLはプロトタイピングプロセスの高速化だけでなく,グラフベースRAGシステムの性能や適用性の向上も図っている。
論文 参考訳(メタデータ) (2025-03-25T03:21:48Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。