論文の概要: Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2505.16237v1
- Date: Thu, 22 May 2025 05:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.050214
- Title: Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation
- Title(参考訳): Align-GRAG:グラフ検索拡張ジェネレーションのための推論ガイド付きデュアルアライメント
- Authors: Derong Xu, Pengyue Jia, Xiaopeng Li, Yingyi Zhang, Maolin Wang, Qidong Liu, Xiangyu Zhao, Yichao Wang, Huifeng Guo, Ruiming Tang, Enhong Chen, Tong Xu,
- Abstract要約: 大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
- 参考スコア(独自算出の注目度): 75.9865035064794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable capabilities, but still struggle with issues like hallucinations and outdated information. Retrieval-augmented generation (RAG) addresses these issues by grounding LLM outputs in external knowledge with an Information Retrieval (IR) system. Building on this foundation, graph-based RAG systems go a step further by retrieving subgraphs, which preserve the relationships between knowledge entities and provide more comprehensive context. However, graph RAG faces two challenges: (1) Retrieving relevant information introduces irrelevant nodes (especially in dense graph databases, where retrieval usually extends to adjacent nodes), and leads to overly lengthy inputs that hinder efficiency; (2) The representation gap between graph and language during generation with LLMs limits the ability to fully leverage graph structures for enhanced understanding. To address these limitations, we propose Align-GRAG, a novel reasoning-guided dual alignment framework in post-retrieval phrase. It first formulates a subgraph by retrieving nodes and edges. Then an Aligner is proposed to jointly optimizes a graph encoder with LLM-summarized reasoning. It achieves dual alignment of graph node and representation by leveraging KL divergence loss and contrastive loss, facilitating efficient pruning of irrelevant knowledge and establishing a unified semantic space. The Generator integrates the aligned graph data with LLM to produce coherent and accurate answers. Experiments on GraphQA benchmark across three tasks (including common sense reasoning, scene graph understanding, and knowledge graph reasoning) validate the effectiveness of our method. The code will be available upon accepted.
- Abstract(参考訳): 大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
この基盤の上に構築されたグラフベースのRAGシステムは、知識エンティティ間の関係を保存し、より包括的なコンテキストを提供するサブグラフを取得することによって、さらに一歩前進する。
しかし, グラフRAGは, 1 つの課題に直面する: 関連する情報を取得することは, 関係のないノード(特にグラフデータベースでは, 検索が通常隣接ノードに拡張される)を導入し, 過度に長い入力をもたらし, 効率を損なう; (2) LLM を用いた世代におけるグラフと言語間の表現ギャップは, グラフ構造を完全に活用して理解を深める能力を制限する。
これらの制約に対処するために、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
まず、ノードとエッジを取得することで、サブグラフを定式化する。
次に Aligner が提案され,LLM 推定推論を用いたグラフエンコーダを共同で最適化する。
KL分散損失とコントラスト損失を利用してグラフノードと表現の二重アライメントを実現し、無関係な知識の効率的なプルーニングを促進し、統一的な意味空間を確立する。
ジェネレータは、整列グラフデータをLCMと統合し、一貫性のある正確な回答を生成する。
GraphQAベンチマーク実験は,3つのタスク(常識推論,シーングラフ理解,知識グラフ推論など)にまたがって,本手法の有効性を検証した。
コードは受け付け次第利用可能です。
関連論文リスト
- Causal Graphs Meet Thoughts: Enhancing Complex Reasoning in Graph-Augmented LLMs [4.701165676405066]
関連情報を検索するだけでなく、因果推論や説明可能性の提供も重要である。
本稿では,大きな知識グラフをフィルタして原因効果エッジを強調する新しいパイプラインを提案する。
医学的質問応答タスクの実験では、一貫した利得を示し、最大10%の絶対的な改善がある。
論文 参考訳(メタデータ) (2025-01-24T19:31:06Z) - Debate on Graph: a Flexible and Reliable Reasoning Framework for Large Language Models [33.662269036173456]
大規模言語モデル(LLM)は、関連する知識の欠如により、現実世界の応用において幻覚に悩まされることがある。
KGQA(Knowledge Graph Question Answering)は、統合のための重要な手掛かりとなる。
LLMの対話型学習機能を活用してグラフ上での推論と議論を行う対話型KGQAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T01:11:58Z) - Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。