論文の概要: CodaRAG: Connecting the Dots with Associativity Inspired by Complementary Learning
- arxiv url: http://arxiv.org/abs/2604.10426v1
- Date: Sun, 12 Apr 2026 02:50:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-14 20:13:16.009245
- Title: CodaRAG: Connecting the Dots with Associativity Inspired by Complementary Learning
- Title(参考訳): CodaRAG: 補完学習にヒントを得たアソシエイティビティとDotsを結びつける
- Authors: Cheng-Yen Li, Xuanjun Chen, Claire Lin, Wei-Yu Chen, Wenhua Nie, Hung-Yi Lee, Jyh-Shing Roger Jang,
- Abstract要約: CodaRAGは、受動的検索からアクティブな連想発見へと進化するフレームワークである。
CodaRAGは、検索リコールで7-10%、生成精度で3-11%という絶対的なゲインを達成する。
- 参考スコア(独自算出の注目度): 50.98972985136333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) struggle with knowledge-intensive tasks due to hallucinations and fragmented reasoning over dispersed information. While Retrieval-Augmented Generation (RAG) grounds generation in external sources, existing methods often treat evidence as isolated units, failing to reconstruct the logical chains that connect these dots. Inspired by Complementary Learning Systems (CLS), we propose CodaRAG, a framework that evolves retrieval from passive lookup into active associative discovery. CodaRAG operates via a three-stage pipeline: (1) Knowledge Consolidation to unify fragmented extractions into a stable memory substrate; (2) Associative Navigation to traverse the graph via multi-dimensional pathways-semantic, contextualized, and functional-explicitly recovering dispersed evidence chains; and (3) Interference Elimination to prune hyper-associative noise, ensuring a coherent, high-precision reasoning context. On GraphRAG-Bench, CodaRAG achieves absolute gains of 7-10% in retrieval recall and 3-11% in generation accuracy. These results demonstrate CodaRAG's superior ability to systematically robustify associative evidence retrieval for factual, reasoning, and creative tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幻覚や分散情報に対する断片的な推論によって、知識集約的なタスクに苦しむ。
Retrieval-Augmented Generation (RAG) は外部ソースで生成するが、既存の手法ではエビデンスを独立した単位として扱い、これらの点を接続する論理的連鎖の再構築に失敗した。
補足学習システム(CLS)にインスパイアされた我々は,受動的検索から能動的連想発見へと進化するフレームワークであるCodaRAGを提案する。
CodaRAG は,(1) 断片抽出を安定なメモリ基板に統一する知識統合,(2) 多次元経路を通してグラフをトラバースする連想ナビゲーション,(2) 散在するエビデンスチェーンを意味的,文脈的,機能的に復元する,(3) ハイアソシアティブノイズへの干渉除去,そして一貫性と高精度な推論コンテキストを保証する。
GraphRAG-Benchでは、検索リコールで7-10%、生成精度で3-11%という絶対的なゲインを達成する。
これらの結果は,コダラグが,事実,推論,創造的タスクに対する連想的エビデンス検索を体系的に強化する優れた能力を示している。
関連論文リスト
- Understand Then Memory: A Cognitive Gist-Driven RAG Framework with Global Semantic Diffusion [14.538534837583931]
Retrieval-Augmented Generation (RAG)は、外部知識を取り入れることで、LLMの幻覚を効果的に緩和する。
本稿では,認知記憶過程をシミュレートするRAGフレームワークであるCogitoRAGを提案する。
CogitoRAGは最先端のRAG手法よりも優れており、複雑な知識の統合や推論において優れた能力を示している。
論文 参考訳(メタデータ) (2026-02-11T12:58:08Z) - CoG: Controllable Graph Reasoning via Relational Blueprints and Failure-Aware Refinement over Knowledge Graphs [53.199517625701475]
CoGはDual-Process Theoryにインスパイアされたトレーニング不要のフレームワークで、直観と熟考の相互作用を模倣している。
CoGは精度と効率の両方において最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2026-01-16T07:27:40Z) - Disco-RAG: Discourse-Aware Retrieval-Augmented Generation [81.53888908988756]
生成プロセスに談話信号を注入する談話認識フレームワークであるディスコRAGを提案する。
提案手法は,チャンク内談話木を構築し,局所階層を捕捉し,クロスパスコヒーレンスをモデル化するためのチャンク間修辞グラフを構築する。
質問応答と長期文書要約ベンチマークの実験から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-07T20:32:50Z) - EcphoryRAG: Re-Imagining Knowledge-Graph RAG via Human Associative Memory [0.0]
本稿では,エンティティ中心の知識グラフRAGフレームワークであるEcphoryRAGを紹介する。
インデックス作成中、EcphoryRAGは対応するメタデータを持つコアエンティティのみを抽出し、格納する。
検索には、まずクエリからキューエンティティを抽出し、スケーラブルなマルチホップ連想検索を実行する。
論文 参考訳(メタデータ) (2025-10-10T03:07:27Z) - LeanRAG: Knowledge-Graph-Based Generation with Semantic Aggregation and Hierarchical Retrieval [10.566901995776025]
LeanRAGは知識集約と検索戦略を組み合わせたフレームワークです。
グラフ上のパス検索に関連するかなりのオーバーヘッドを軽減し、冗長な情報検索を最小限にする。
論文 参考訳(メタデータ) (2025-08-14T06:47:18Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - PropRAG: Guiding Retrieval with Beam Search over Proposition Paths [15.346744525284604]
PropRAGは、トリプルからコンテキストリッチな命題に移行する新しいRAGフレームワークである。
PropRAGは2Wiki、HotpotQA、MuSiQueでRecall@5とF1のスコアを達成している。
論文 参考訳(メタデータ) (2025-04-25T04:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。