論文の概要: Relink: Constructing Query-Driven Evidence Graph On-the-Fly for GraphRAG
- arxiv url: http://arxiv.org/abs/2601.07192v1
- Date: Mon, 12 Jan 2026 04:35:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.210944
- Title: Relink: Constructing Query-Driven Evidence Graph On-the-Fly for GraphRAG
- Title(参考訳): Relink: GraphRAG用のクエリ駆動エビデンスグラフのオンザフライ構築
- Authors: Manzong Huang, Chenyang Bu, Yi He, Xingrui Zhuo, Xindong Wu,
- Abstract要約: 本稿では,問合せ固有のエビデンスグラフを動的に構築するフレームワークであるRelinkを提案する。
Relinkは、主要なGraphRAGベースラインよりもEMで5.4%、F1で5.2%の大幅な平均改善を実現している。
- 参考スコア(独自算出の注目度): 10.60635000782353
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph-based Retrieval-Augmented Generation (GraphRAG) mitigates hallucinations in Large Language Models (LLMs) by grounding them in structured knowledge. However, current GraphRAG methods are constrained by a prevailing \textit{build-then-reason} paradigm, which relies on a static, pre-constructed Knowledge Graph (KG). This paradigm faces two critical challenges. First, the KG's inherent incompleteness often breaks reasoning paths. Second, the graph's low signal-to-noise ratio introduces distractor facts, presenting query-relevant but misleading knowledge that disrupts the reasoning process. To address these challenges, we argue for a \textit{reason-and-construct} paradigm and propose Relink, a framework that dynamically builds a query-specific evidence graph. To tackle incompleteness, \textbf{Relink} instantiates required facts from a latent relation pool derived from the original text corpus, repairing broken paths on the fly. To handle misleading or distractor facts, Relink employs a unified, query-aware evaluation strategy that jointly considers candidates from both the KG and latent relations, selecting those most useful for answering the query rather than relying on their pre-existence. This empowers Relink to actively discard distractor facts and construct the most faithful and precise evidence path for each query. Extensive experiments on five Open-Domain Question Answering benchmarks show that Relink achieves significant average improvements of 5.4\% in EM and 5.2\% in F1 over leading GraphRAG baselines, demonstrating the superiority of our proposed framework.
- Abstract(参考訳): GraphRAG(Graph-based Retrieval-Augmented Generation)は、大規模言語モデル(LLM)における幻覚を、構造化された知識で基礎づけることによって緩和する。
しかし、現在のGraphRAGメソッドは、静的で事前構築された知識グラフ(KG)に依存した、一般的な \textit{build-then-reason} パラダイムによって制約されている。
このパラダイムは2つの重要な課題に直面します。
第一に、KGの固有の不完全性は、しばしば推論経路を破る。
第二に、グラフの低信号対雑音比は、クエリ関連であるが推論過程を妨害する誤解を招く知識を提示する、散発的な事実をもたらす。
これらの課題に対処するため,我々は,クエリ固有のエビデンスグラフを動的に構築するフレームワークであるRelinkを提案する。
不完全性に取り組むために、 \textbf{Relink} は元のテキストコーパスから派生した潜在関係プールから要求された事実をインスタンス化し、ハエの壊れたパスを修復する。
誤解を招く事実や注意をそらす事実に対処するため、Relinkでは、KGと潜伏関係の両方の候補を共同で検討する、統合されたクエリ対応評価戦略を採用している。
これによりRelinkは、邪魔な事実を積極的に取り除き、クエリごとに最も忠実で正確なエビデンスパスを構築することができる。
5つのOpen-Domain Question Answeringベンチマークにおいて、Relinkは、主要なGraphRAGベースラインよりも5.4\%、F1の5.2\%の大幅な平均的改善を実現し、提案フレームワークの優位性を実証している。
関連論文リスト
- N2N-GQA: Noise-to-Narrative for Graph-Based Table-Text Question Answering Using LLMs [0.0]
ハイブリッドテーブルテキストデータに対するマルチホップ質問応答には,大規模コーパスからの複数のエビデンス部分の検索と推論が必要である。
Standard Retrieval-Augmented Generation (RAG) パイプラインは文書をフラットなランクリストとして処理し、検索ノイズがあいまいな推論連鎖を引き起こす。
N2N-GQAは、ノイズの多い検索出力から動的エビデンスグラフを構成する、オープンドメインハイブリッドテーブルテキストQAのための最初のゼロショットフレームワークである。
論文 参考訳(メタデータ) (2026-01-10T15:55:15Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - Beyond Static Retrieval: Opportunities and Pitfalls of Iterative Retrieval in GraphRAG [40.27922416050001]
グラフベースのRAG(GraphRAG)は、知識集約型質問応答において、大規模言語モデル(LLM)を改善するための強力なパラダイムである。
反復検索は有望な代替手段として登場したが、GraphRAGにおけるその役割は未だよく分かっていない。
本稿では,グラフベースのバックボーンと異なる戦略がどのように相互作用するかを解析し,グラフRAGにおける反復検索に関する最初の体系的研究について述べる。
論文 参考訳(メタデータ) (2025-09-29T21:38:28Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - LeanRAG: Knowledge-Graph-Based Generation with Semantic Aggregation and Hierarchical Retrieval [10.566901995776025]
LeanRAGは知識集約と検索戦略を組み合わせたフレームワークです。
グラフ上のパス検索に関連するかなりのオーバーヘッドを軽減し、冗長な情報検索を最小限にする。
論文 参考訳(メタデータ) (2025-08-14T06:47:18Z) - You Don't Need Pre-built Graphs for RAG: Retrieval Augmented Generation with Adaptive Reasoning Structures [16.867592142212203]
大型言語モデル(LLM)はしばしば幻覚に悩まされ、知識を超えた質問を処理する際に、事実的に誤った文を生成する。
Retrieval-augmented Generation (RAG)は、LLM推論をサポートするために、知識ベースからクエリ関連コンテキストを取得することで、この問題に対処する。
既存のGraphベースのRAGメソッドは、コーパスをグラフに変換するためのコストの高いプロセスに依存しており、圧倒的なトークンコストとアップデートのレイテンシを導入している。
本稿では,推論時に推論構造を動的に抽出し,事前に構築したグラフを使わずに適応検索を誘導するLogicRAGを提案する。
論文 参考訳(メタデータ) (2025-08-08T08:07:40Z) - BYOKG-RAG: Multi-Strategy Graph Retrieval for Knowledge Graph Question Answering [38.3732958942896]
BYOKG-RAGは知識グラフ質問応答を強化するフレームワークである。
LLM(Large Language Model)エージェントと特殊なグラフ検索ツールを組み合わせる。
異なるグラフツールからコンテキストを取得することで、BYOKG-RAGはカスタムKGよりもより汎用的で堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-07-05T18:47:14Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Respecting Temporal-Causal Consistency: Entity-Event Knowledge Graphs for Retrieval-Augmented Generation [69.45495166424642]
我々は,物語文書における時間的,因果的,文字的整合性を理解するために,頑健で差別的なQAベンチマークを開発する。
次に、バイナリマッピングでリンクされたエンティティとイベントのサブグラフを分離したまま保持するデュアルグラフフレームワークであるEntity-Event RAG(E2RAG)を紹介します。
ChronoQA全体で、我々のアプローチは最先端の非構造化およびKGベースのRAGベースラインよりも優れており、因果一貫性クエリや文字整合性クエリが顕著である。
論文 参考訳(メタデータ) (2025-06-06T10:07:21Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。