論文の概要: T-GRAG: A Dynamic GraphRAG Framework for Resolving Temporal Conflicts and Redundancy in Knowledge Retrieval
- arxiv url: http://arxiv.org/abs/2508.01680v1
- Date: Sun, 03 Aug 2025 09:15:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.003427
- Title: T-GRAG: A Dynamic GraphRAG Framework for Resolving Temporal Conflicts and Redundancy in Knowledge Retrieval
- Title(参考訳): T-GRAG: 知識検索における時間的矛盾と冗長性を解決するための動的グラフRAGフレームワーク
- Authors: Dong Li, Yichen Niu, Ying Ai, Xiang Zou, Biqing Qi, Jianxing Liu,
- Abstract要約: 本稿では,時間とともに知識の進化をモデル化する動的時間認識RAGフレームワークであるT-GRAGを提案する。
T-GRAGは、(1)時間スタンプで進化するグラフ構造を生成するテンポラル知識グラフ生成装置、(2)複雑な時間的クエリを管理可能なサブクエリに分解するテンポラルクエリ分解機構、(3)時間的サブグラフ間の検索を段階的にフィルタリングし洗練する3層インタラクティブレトリバーからなる。
T-GRAGは検索精度と応答性の両方において,RAGおよびGraphRAGベースラインよりも有意に優れていた。
- 参考スコア(独自算出の注目度): 4.114480531154174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated strong performance in natural language generation but remain limited in knowle- dge-intensive tasks due to outdated or incomplete internal knowledge. Retrieval-Augmented Generation (RAG) addresses this by incorporating external retrieval, with GraphRAG further enhancing performance through structured knowledge graphs and multi-hop reasoning. However, existing GraphRAG methods largely ignore the temporal dynamics of knowledge, leading to issues such as temporal ambiguity, time-insensitive retrieval, and semantic redundancy. To overcome these limitations, we propose Temporal GraphRAG (T-GRAG), a dynamic, temporally-aware RAG framework that models the evolution of knowledge over time. T-GRAG consists of five key components: (1) a Temporal Knowledge Graph Generator that creates time-stamped, evolving graph structures; (2) a Temporal Query Decomposition mechanism that breaks complex temporal queries into manageable sub-queries; (3) a Three-layer Interactive Retriever that progressively filters and refines retrieval across temporal subgraphs; (4) a Source Text Extractor to mitigate noise; and (5) a LLM-based Generator that synthesizes contextually and temporally accurate responses. We also introduce Time-LongQA, a novel benchmark dataset based on real-world corporate annual reports, designed to test temporal reasoning across evolving knowledge. Extensive experiments show that T-GRAG significantly outperforms prior RAG and GraphRAG baselines in both retrieval accuracy and response relevance under temporal constraints, highlighting the necessity of modeling knowledge evolution for robust long-text question answering. Our code is publicly available on the T-GRAG
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語生成において強力な性能を示してきたが、時代遅れや不完全な内部知識のため、nore-dge集約的なタスクに限られている。
Retrieval-Augmented Generation (RAG) は外部検索を取り入れてこの問題に対処し、GraphRAGは構造化知識グラフとマルチホップ推論によるパフォーマンスをさらに向上させる。
しかし、既存のGraphRAG法は知識の時間的ダイナミクスを無視し、時間的曖昧さ、時間的不感な検索、意味的冗長性といった問題に繋がる。
これらの制約を克服するため,時間とともに知識の進化をモデル化する動的時間認識RAGフレームワークであるT-GRAGを提案する。
T-GRAGは、(1)時間スタンプで進化するグラフ構造を生成するテンポラル知識グラフ生成装置、(2)複雑な時間的クエリを管理可能なサブクエリに分解するテンポラルクエリ分解機構、(3)時間的サブグラフ間の検索を段階的にフィルタリングし洗練する3層インタラクティブ検索機構、(4)ノイズを緩和するソーステキストエクストラクタ、(5)文脈的かつ時間的に正確な応答を合成するLLMベースのジェネレータから構成される。
また、進化する知識の時間的推論をテストするために設計された、実世界の企業年次レポートに基づく新しいベンチマークデータセットであるTime-LongQAを紹介した。
T-GRAGは、時間的制約下での検索精度と応答関連性の両方において、RAGとGraphRAGのベースラインよりも有意に優れており、堅牢な長文質問応答のためのモデリング知識進化の必要性を強調している。
私たちのコードはT-GRAGで公開されています
関連論文リスト
- DyG-RAG: Dynamic Graph Retrieval-Augmented Generation with Event-Centric Reasoning [38.28580037356542]
イベント中心の動的グラフ検索拡張生成フレームワークであるDyG-RAGを紹介する。
DyG-RAGは、非構造化テキストに埋め込まれた時間的知識を捕捉し、推論するために、動的イベントユニット(DEU)を提案する。
時間的に一貫した生成を保証するため、DyG-RAGはイベントタイムライン検索パイプラインを導入した。
論文 参考訳(メタデータ) (2025-07-16T10:22:35Z) - T-GRAB: A Synthetic Diagnostic Benchmark for Learning on Temporal Graphs [6.199165061105655]
時間的グラフ推論ベンチマーク(T-GRAB)を導入し,TGNNの時間的推論能力を体系的に探究する。
T-GRABは、主要な時間的スキルを分離する制御された解釈可能なタスクを提供する。
これらの課題に対して,11の時間グラフ学習手法を評価し,時間パターンを一般化する能力の根本的な欠点を明らかにした。
論文 参考訳(メタデータ) (2025-07-14T11:47:43Z) - Respecting Temporal-Causal Consistency: Entity-Event Knowledge Graphs for Retrieval-Augmented Generation [69.45495166424642]
我々は,物語文書における時間的,因果的,文字的整合性を理解するために,頑健で差別的なQAベンチマークを開発する。
次に、バイナリマッピングでリンクされたエンティティとイベントのサブグラフを分離したまま保持するデュアルグラフフレームワークであるEntity-Event RAG(E2RAG)を紹介します。
ChronoQA全体で、我々のアプローチは最先端の非構造化およびKGベースのRAGベースラインよりも優れており、因果一貫性クエリや文字整合性クエリが顕著である。
論文 参考訳(メタデータ) (2025-06-06T10:07:21Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [75.9865035064794]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - RGL: A Graph-Centric, Modular Framework for Efficient Retrieval-Augmented Generation on Graphs [58.10503898336799]
完全なRAGパイプラインをシームレスに統合するモジュラーフレームワークであるRAG-on-Graphs Library(RGL)を紹介した。
RGLは、さまざまなグラフフォーマットをサポートし、必須コンポーネントの最適化実装を統合することで、重要な課題に対処する。
評価の結果,RGLはプロトタイピングプロセスの高速化だけでなく,グラフベースRAGシステムの性能や適用性の向上も図っている。
論文 参考訳(メタデータ) (2025-03-25T03:21:48Z) - Beyond Single Pass, Looping Through Time: KG-IRAG with Iterative Knowledge Retrieval [18.96570718233786]
GraphRAGは、外部知識を必要とするタスクにおいて、LLM(Large Language Models)の性能を高めるのに非常に効果的であることが証明されている。
本稿では,KGと反復推論を統合する新しいフレームワークである知識グラフに基づく反復検索生成(KG-IRAG)を提案する。
KG-IRAGのパフォーマンスを評価するために、3つの新しいデータセットが作成され、従来のRAGアプリケーションを超える可能性を示している。
論文 参考訳(メタデータ) (2025-03-18T13:11:43Z) - Retrieval-Augmented Generation with Graphs (GraphRAG) [84.29507404866257]
Retrieval-augmented Generation (RAG) は、追加情報を取得することによって下流タスクの実行を向上させる強力な技術である。
グラフは、その固有の「エッジで接続されたノード」の性質により、巨大な異種情報と関係情報を符号化する。
従来のRAGとは異なり、多種多様な形式とドメイン固有の関係知識のようなグラフ構造化データのユニークさは、異なるドメインでGraphRAGを設計する際、ユニークで重要な課題を生じさせる。
論文 参考訳(メタデータ) (2024-12-31T06:59:35Z) - MemoRAG: Boosting Long Context Processing with Global Memory-Enhanced Retrieval Augmentation [60.04380907045708]
Retrieval-Augmented Generation (RAG)は、この問題に対処するための有望な戦略と考えられている。
我々は,グローバルメモリ拡張検索による新しいRAGフレームワークであるMemoRAGを提案する。
MemoRAGは、様々な長期コンテキスト評価タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z) - Two-stage Generative Question Answering on Temporal Knowledge Graph Using Large Language Models [24.417129499480975]
本稿ではまず,新しい時間的知識グラフ質問応答フレームワークGenTKGQAを提案する。
まず、LLMの本質的な知識を利用して、時間的制約や質問の構造的リンクを余分な訓練なしに掘り下げる。
次に、サブグラフのグラフニューラルネットワーク信号とLLMのテキスト表現を非浅めに融合させる仮想知識インジケータを設計する。
論文 参考訳(メタデータ) (2024-02-26T13:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。