論文の概要: AGRAG: Advanced Graph-based Retrieval-Augmented Generation for LLMs
- arxiv url: http://arxiv.org/abs/2511.05549v1
- Date: Sun, 02 Nov 2025 06:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.424161
- Title: AGRAG: Advanced Graph-based Retrieval-Augmented Generation for LLMs
- Title(参考訳): AGRAG: LLMのための高度なグラフベースの検索型生成
- Authors: Yubo Wang, Haoyang Li, Fei Teng, Lei Chen,
- Abstract要約: グラフベースの検索強化生成(RAG)は構造化知識でLarge Language Models(LLMs)を増強する大きな可能性を証明している。
既存の手法では、不正確なグラフ構築、不適切な推論能力、不適切な解答の3つの重要な課題に直面している。
本稿では,高度なグラフベースの検索拡張生成フレームワークであるAGRAGを提案する。
- 参考スコア(独自算出の注目度): 15.570965946461255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph-based retrieval-augmented generation (Graph-based RAG) has demonstrated significant potential in enhancing Large Language Models (LLMs) with structured knowledge. However, existing methods face three critical challenges: Inaccurate Graph Construction, caused by LLM hallucination; Poor Reasoning Ability, caused by failing to generate explicit reasons telling LLM why certain chunks were selected; and Inadequate Answering, which only partially answers the query due to the inadequate LLM reasoning, making their performance lag behind NaiveRAG on certain tasks. To address these issues, we propose AGRAG, an advanced graph-based retrieval-augmented generation framework. When constructing the graph, AGRAG substitutes the widely used LLM entity extraction method with a statistics-based method, avoiding hallucination and error propagation. When retrieval, AGRAG formulates the graph reasoning procedure as the Minimum Cost Maximum Influence (MCMI) subgraph generation problem, where we try to include more nodes with high influence score, but with less involving edge cost, to make the generated reasoning paths more comprehensive. We prove this problem to be NP-hard, and propose a greedy algorithm to solve it. The MCMI subgraph generated can serve as explicit reasoning paths to tell LLM why certain chunks were retrieved, thereby making the LLM better focus on the query-related part contents of the chunks, reducing the impact of noise, and improving AGRAG's reasoning ability. Furthermore, compared with the simple tree-structured reasoning paths, our MCMI subgraph can allow more complex graph structures, such as cycles, and improve the comprehensiveness of the generated reasoning paths.
- Abstract(参考訳): グラフベース検索拡張生成(グラフベースRAG)は,構造化知識を用いてLLM(Large Language Models)の拡張に有意な可能性を示唆している。
しかし、既存の手法では、LLMの幻覚によって引き起こされる不正確なグラフ構築、LLMが選択された理由を明確に説明できないために生じる不適切な推論能力、LLMの推論が不十分なためにクエリに部分的に答える不適切なアンサーリング、特定のタスクでNaiveRAGよりもパフォーマンスが遅れている、という3つの重要な課題に直面している。
これらの問題に対処するため、我々は高度なグラフベースの検索拡張生成フレームワークであるAGRAGを提案する。
グラフを構築する際、AGRAGは、広く使われているLCMエンティティ抽出法を統計に基づく方法で置き換え、幻覚やエラーの伝播を避ける。
AGRAGは、グラフ推論手順をMCMI(Minimum Cost Maximum Influence)サブグラフ生成問題として定式化し、高い影響スコアを持つノードをより多くのノードに含めようとするが、エッジコストを少なくすることで、生成した推論パスをより包括的にする。
この問題をNPハードであると証明し、それを解決するためのグリーディアルゴリズムを提案する。
生成されたMCMIサブグラフは、LCMになぜ特定のチャンクが回収されたのかを伝える明示的な推論経路として機能し、これにより、LCMはチャンクのクエリ関連部分の内容により焦点を合わせ、ノイズの影響を低減し、AGRAGの推論能力を改善することができる。
さらに、単純な木構造推論パスと比較して、MCMIサブグラフはサイクルのようなより複雑なグラフ構造を許容し、生成された推論パスの包括性を改善することができる。
関連論文リスト
- G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - DAGR: Decomposition Augmented Graph Retrieval with LLMs [1.034893617526558]
DAGRは、複雑な質問と、関連するリンクされたサブグラフを抽出するサブクエストにおけるそれらの分解の両方を活用する検索手法である。
結果として得られるGraph-RAGパイプラインは、複雑なマルチホップ質問の処理と、グラフ構造化データに対する効果的な推論に適している。
DAGRを標準マルチホップQAベンチマークで評価し、競合する既存手法に匹敵する性能または優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-06-16T11:44:28Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Causal Graphs Meet Thoughts: Enhancing Complex Reasoning in Graph-Augmented LLMs [4.701165676405066]
関連情報を検索するだけでなく、因果推論や説明可能性の提供も重要である。
本稿では,大きな知識グラフをフィルタして原因効果エッジを強調する新しいパイプラインを提案する。
医学的質問応答タスクの実験では、一貫した利得を示し、最大10%の絶対的な改善がある。
論文 参考訳(メタデータ) (2025-01-24T19:31:06Z) - Can Graph Descriptive Order Affect Solving Graph Problems with LLMs? [55.5662721046769]
大規模言語モデル(LLM)は、数学的推論や論理的推論を含む推論タスクにおいて大きな成功を収めた。
従来の研究は様々な手法を用いてLSMのグラフ推論能力について研究してきた。
重要な要素は、主に見過ごされ、グラフ記述がモデルに提示される即時順序である。
論文 参考訳(メタデータ) (2024-02-11T09:46:24Z) - Can Language Models Solve Graph Problems in Natural Language? [51.28850846990929]
大型言語モデル (LLM) は暗黙的なグラフィカル構造を持つ様々なタスクに採用されている。
自然言語をシミュレーションするグラフベース問題解決のベンチマークであるNLGraphを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:29:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。