論文の概要: PathRAG: Pruning Graph-based Retrieval Augmented Generation with Relational Paths
- arxiv url: http://arxiv.org/abs/2502.14902v1
- Date: Tue, 18 Feb 2025 11:18:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:11:31.849896
- Title: PathRAG: Pruning Graph-based Retrieval Augmented Generation with Relational Paths
- Title(参考訳): PathRAG:リレーショナルパスを用いたグラフベース検索拡張生成
- Authors: Boyu Chen, Zirui Guo, Zidan Yang, Yuluo Chen, Junze Chen, Zhenghao Liu, Chuan Shi, Cheng Yang,
- Abstract要約: Retrieval-augmented Generation (RAG)は、外部データベースから知識を取得することで、大規模言語モデル(LLM)の応答品質を改善する。
本稿では、インデックス化グラフから重要な関係経路を検索し、これらの経路をテキスト形式に変換してLLMを誘導するPathRAGを提案する。
PathRAGは、6つのデータセットと5つの評価次元で、最先端のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 42.01377074786958
- License:
- Abstract: Retrieval-augmented generation (RAG) improves the response quality of large language models (LLMs) by retrieving knowledge from external databases. Typical RAG approaches split the text database into chunks, organizing them in a flat structure for efficient searches. To better capture the inherent dependencies and structured relationships across the text database, researchers propose to organize textual information into an indexing graph, known asgraph-based RAG. However, we argue that the limitation of current graph-based RAG methods lies in the redundancy of the retrieved information, rather than its insufficiency. Moreover, previous methods use a flat structure to organize retrieved information within the prompts, leading to suboptimal performance. To overcome these limitations, we propose PathRAG, which retrieves key relational paths from the indexing graph, and converts these paths into textual form for prompting LLMs. Specifically, PathRAG effectively reduces redundant information with flow-based pruning, while guiding LLMs to generate more logical and coherent responses with path-based prompting. Experimental results show that PathRAG consistently outperforms state-of-the-art baselines across six datasets and five evaluation dimensions. The code is available at the following link: https://github.com/BUPT-GAMMA/PathRAG
- Abstract(参考訳): Retrieval-augmented Generation (RAG)は、外部データベースから知識を取得することで、大規模言語モデル(LLM)の応答品質を改善する。
典型的なRAGアプローチでは、テキストデータベースをチャンクに分割し、効率的な検索のためにフラットな構造に整理する。
テキストデータベース全体の固有の依存関係と構造化された関係をより正確に把握するために、研究者はテキスト情報をグラフベースのRAGとして知られるインデックスグラフに整理することを提案する。
しかし、現在のグラフベースのRAG手法の限界は、その不十分さよりも、検索した情報の冗長性にあると論じる。
さらに,従来の手法では,抽出した情報をプロンプト内で整理するためにフラットな構造を用いており,その性能は最適以下である。
この制限を克服するため,インデクシンググラフからキーリレーショナルパスを抽出するPathRAGを提案する。
特に、PathRAGはフローベースプルーニングによる冗長情報を効果的に低減し、LLMを誘導してパスベースのプロンプトによるより論理的で一貫性のある応答を生成する。
実験の結果,PathRAGは6つのデータセットと5つの評価次元で,最先端のベースラインを一貫して上回ることがわかった。
コードは以下のリンクで入手できる。 https://github.com/BUPT-GAMMA/PathRAG
関連論文リスト
- ArchRAG: Attributed Community-based Hierarchical Retrieval-Augmented Generation [16.204046295248546]
Retrieval-Augmented Generation (RAG) は、外部知識を大規模言語モデルに統合するのに有効であることが証明されている。
我々は、Attributed Community-based Hierarchical RAG (ArchRAG)と呼ばれる新しいグラフベースのRAGアプローチを導入する。
属性付きコミュニティのための新しい階層型インデックス構造を構築し,効果的なオンライン検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-14T03:28:36Z) - KET-RAG: A Cost-Efficient Multi-Granular Indexing Framework for Graph-RAG [21.62060252772377]
Graph-RAGは、Large Language Model (LLM)ベースの質問応答における検索を改善するために、テキストチャンクから知識グラフを構築する。
既存のGraph-RAGシステムでは、テキストチャンクの関連性に基づいてKNNグラフを構築しているが、この粗い粒度のアプローチでは、テキスト内のエンティティ関係をキャプチャできない。
KET-RAGは,インデクシングコストを低減しつつ,良好な結果の精度を確保するための多粒性インデックスフレームワークである。
論文 参考訳(メタデータ) (2025-02-13T13:16:16Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - G-RAG: Knowledge Expansion in Material Science [0.0]
Graph RAGはグラフデータベースを統合して、検索プロセスを強化する。
文書のより詳細な表現を実現するために,エージェントベースの解析手法を実装した。
論文 参考訳(メタデータ) (2024-11-21T21:22:58Z) - Towards Evaluating Large Language Models for Graph Query Generation [49.49881799107061]
大言語モデル(LLM)は、生成人工知能(GenAI)の景観に革命をもたらしている
本稿では,オープンアクセス LLM を用いてグラフデータベースと対話する強力な言語としてクエリを生成することの課題について比較検討する。
クエリ生成精度を実証的に分析したところ、Claude Sonnet 3.5は特定のドメインでそれよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-13T09:11:56Z) - VisRAG: Vision-based Retrieval-augmented Generation on Multi-modality Documents [66.42579289213941]
Retrieval-augmented Generation (RAG) は、大規模言語モデルが外部知識ソースを生成に活用できる効果的な手法である。
本稿では,視覚言語モデル(VLM)に基づくRAGパイプラインを構築することで,この問題に対処するVisRAGを紹介する。
このパイプラインでは、まず文書を解析してテキストを得る代わりに、VLMを画像として直接埋め込んで、VLMの生成を強化する。
論文 参考訳(メタデータ) (2024-10-14T15:04:18Z) - MemoRAG: Moving towards Next-Gen RAG Via Memory-Inspired Knowledge Discovery [24.38640001674072]
Retrieval-Augmented Generation (RAG)は、検索ツールを利用して外部データベースにアクセスする。
既存のRAGシステムは主に簡単な質問応答タスクに有効である。
本稿では,MemoRAGを提案する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - Graph Retrieval-Augmented Generation: A Survey [28.979898837538958]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の課題に再トレーニングを必要とせずに対処することに成功した。
本稿では,GraphRAGの方法論について概観する。
Graph-Based Indexing、Graph-Guided Retrieval、Graph-Enhanced Generationを含むGraphRAGワークフローを形式化する。
論文 参考訳(メタデータ) (2024-08-15T12:20:24Z) - RaFe: Ranking Feedback Improves Query Rewriting for RAG [83.24385658573198]
アノテーションを使わずにクエリ書き換えモデルをトレーニングするためのフレームワークを提案する。
公開されているリランカを活用することで、フィードバックはリライトの目的とよく一致します。
論文 参考訳(メタデータ) (2024-05-23T11:00:19Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。