論文の概要: DyG-RAG: Dynamic Graph Retrieval-Augmented Generation with Event-Centric Reasoning
- arxiv url: http://arxiv.org/abs/2507.13396v1
- Date: Wed, 16 Jul 2025 10:22:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.072371
- Title: DyG-RAG: Dynamic Graph Retrieval-Augmented Generation with Event-Centric Reasoning
- Title(参考訳): DyG-RAG:イベント中心推論による動的グラフ検索拡張生成
- Authors: Qingyun Sun, Jiaqi Yuan, Shan He, Xiao Guan, Haonan Yuan, Xingcheng Fu, Jianxin Li, Philip S. Yu,
- Abstract要約: イベント中心の動的グラフ検索拡張生成フレームワークであるDyG-RAGを紹介する。
DyG-RAGは、非構造化テキストに埋め込まれた時間的知識を捕捉し、推論するために、動的イベントユニット(DEU)を提案する。
時間的に一貫した生成を保証するため、DyG-RAGはイベントタイムライン検索パイプラインを導入した。
- 参考スコア(独自算出の注目度): 38.28580037356542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Retrieval-Augmented Generation has emerged as a powerful paradigm for grounding large language models with external structured knowledge. However, existing Graph RAG methods struggle with temporal reasoning, due to their inability to model the evolving structure and order of real-world events. In this work, we introduce DyG-RAG, a novel event-centric dynamic graph retrieval-augmented generation framework designed to capture and reason over temporal knowledge embedded in unstructured text. To eliminate temporal ambiguity in traditional retrieval units, DyG-RAG proposes Dynamic Event Units (DEUs) that explicitly encode both semantic content and precise temporal anchors, enabling accurate and interpretable time-aware retrieval. To capture temporal and causal dependencies across events, DyG-RAG constructs an event graph by linking DEUs that share entities and occur close in time, supporting efficient and meaningful multi-hop reasoning. To ensure temporally consistent generation, DyG-RAG introduces an event timeline retrieval pipeline that retrieves event sequences via time-aware traversal, and proposes a Time Chain-of-Thought strategy for temporally grounded answer generation. This unified pipeline enables DyG-RAG to retrieve coherent, temporally ordered event sequences and to answer complex, time-sensitive queries that standard RAG systems cannot resolve. Extensive experiments on temporal QA benchmarks demonstrate that DyG-RAG significantly improves the accuracy and recall of three typical types of temporal reasoning questions, paving the way for more faithful and temporal-aware generation. DyG-RAG is available at https://github.com/RingBDStack/DyG-RAG.
- Abstract(参考訳): Graph Retrieval-Augmented Generationは、外部構造的知識を持つ大規模言語モデルを構築するための強力なパラダイムとして登場した。
しかし、既存のGraph RAGメソッドは、現実世界のイベントの構造や順序をモデル化できないため、時間的推論に苦慮している。
本研究では,非構造化テキストに埋め込まれた時間的知識の獲得と推論を目的とした,イベント中心の動的グラフ検索拡張生成フレームワークであるDyG-RAGを紹介する。
従来の検索単位における時間的曖昧さを排除するため、DyG-RAGは、意味的内容と正確な時間的アンカーの両方を明示的にエンコードし、正確かつ解釈可能な時間的検索を可能にする動的イベントユニット(DEU)を提案する。
イベント間の時間的および因果的依存関係をキャプチャするために、DyG-RAGはエンティティを共有し、時間内に発生するDEUをリンクすることでイベントグラフを構築し、効率的で有意義なマルチホップ推論をサポートする。
時間的に一貫した生成を保証するため、DyG-RAGは、時間認識トラバーサルを介してイベントシーケンスを検索するイベントタイムライン検索パイプラインを導入し、時間的に基底付けられた回答生成のためのタイムチェーン・オブ・ソート戦略を提案する。
この統合パイプラインにより、DyG-RAGはコヒーレントで時間的に順序付けられたイベントシーケンスを検索し、標準的なRAGシステムが解決できない複雑で時間に敏感なクエリに答えることができる。
時間的QAベンチマークに関する大規模な実験により、DyG-RAGは3つの典型的な時間的推論質問の精度とリコールを著しく改善し、より忠実で時間的認識のある生成への道を開いた。
DyG-RAGはhttps://github.com/RingBDStack/DyG-RAGで入手できる。
関連論文リスト
- T-GRAG: A Dynamic GraphRAG Framework for Resolving Temporal Conflicts and Redundancy in Knowledge Retrieval [4.114480531154174]
本稿では,時間とともに知識の進化をモデル化する動的時間認識RAGフレームワークであるT-GRAGを提案する。
T-GRAGは、(1)時間スタンプで進化するグラフ構造を生成するテンポラル知識グラフ生成装置、(2)複雑な時間的クエリを管理可能なサブクエリに分解するテンポラルクエリ分解機構、(3)時間的サブグラフ間の検索を段階的にフィルタリングし洗練する3層インタラクティブレトリバーからなる。
T-GRAGは検索精度と応答性の両方において,RAGおよびGraphRAGベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2025-08-03T09:15:36Z) - EraRAG: Efficient and Incremental Retrieval Augmented Generation for Growing Corpora [20.890240791042302]
グラフベースのRetrieval-Augmented Generation (Graph-RAG)は、外部コーパス上の検索を構造化することにより、大きな言語モデル(LLM)を強化する。
高速でスケーラブルな動的更新をサポートする新しい多層グラフ-RAGフレームワークであるEraRAGを紹介する。
提案手法は,超平面に基づく局所性感性ハッシュ(LSH)を利用して,元のコーパスを階層グラフ構造に分割,整理する。
論文 参考訳(メタデータ) (2025-06-26T03:01:33Z) - Respecting Temporal-Causal Consistency: Entity-Event Knowledge Graphs for Retrieval-Augmented Generation [69.45495166424642]
我々は,物語文書における時間的,因果的,文字的整合性を理解するために,頑健で差別的なQAベンチマークを開発する。
次に、バイナリマッピングでリンクされたエンティティとイベントのサブグラフを分離したまま保持するデュアルグラフフレームワークであるEntity-Event RAG(E2RAG)を紹介します。
ChronoQA全体で、我々のアプローチは最先端の非構造化およびKGベースのRAGベースラインよりも優れており、因果一貫性クエリや文字整合性クエリが顕著である。
論文 参考訳(メタデータ) (2025-06-06T10:07:21Z) - ScaDyG:A New Paradigm for Large-scale Dynamic Graph Learning [31.629956388962814]
ScaDyGは動的グラフネットワークのためのタイムアウェアなスケーラブルな学習パラダイムである。
12のデータセットの実験では、ScaDyGは、ノードレベルとリンクレベルの両方の下流タスクにおいて、互換性のあるパフォーマンス、あるいは他のSOTAメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-01-27T12:39:16Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Learning Granularity Representation for Temporal Knowledge Graph Completion [2.689675451882683]
時間的知識グラフ(TKG)は、実世界の事実の動的な構造的知識と進化的パターンを反映する時間的情報を含んでいる。
本稿では,TKG 補完のための textbfLearning textbfGranularity textbfRepresentation (termed $mathsfLGRe$) を提案する。
グラニュラリティ・ラーニング(GRL)とアダプティブグラニュラリティ・バランシング(AGB)の2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-27T08:19:34Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - An Empirical Study: Extensive Deep Temporal Point Process [61.14164208094238]
本稿では,非同期イベントシーケンスを時間的プロセスでモデル化することの課題と最近の研究を概観する。
本稿では,多種類のイベント間の関係を生かしたGranger因果発見フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-19T10:15:00Z) - Augmented Transformer with Adaptive Graph for Temporal Action Proposal
Generation [79.98992138865042]
TAPGの長期的および局所的時間的コンテキストを利用するための適応グラフネットワーク(ATAG)を備えた拡張トランスを提案する。
具体的には、スニペット動作損失と前部ブロックを装着し、拡張トランスと呼ばれるバニラトランスを強化する。
位置情報と隣接特徴の差異をマイニングすることで局所時間文脈を構築するための適応型グラフ畳み込みネットワーク(gcn)を提案する。
論文 参考訳(メタデータ) (2021-03-30T02:01:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。