論文の概要: IGMiRAG: Intuition-Guided Retrieval-Augmented Generation with Adaptive Mining of In-Depth Memory
- arxiv url: http://arxiv.org/abs/2602.07525v1
- Date: Sat, 07 Feb 2026 12:42:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.668382
- Title: IGMiRAG: Intuition-Guided Retrieval-Augmented Generation with Adaptive Mining of In-Depth Memory
- Title(参考訳): IGMiRAG:In-Depthメモリのアダプティブマイニングによる直感誘導検索生成
- Authors: Xingliang Hou, Yuyan Liu, Qi Sun, haoxiu wang, Hao Hu, Shaoyi Du, Zhiqiang Tian,
- Abstract要約: Retrieval-augmented Generation (RAG)は、信頼性の高い知識メモリを備えた大規模言語モデルである。
近年の研究では、グラフとハイパーグラフをRAGに統合し、構造化リンクとしてペアとマルチエンタリティの関係を捉えている。
我々は人間の直観誘導推論に触発されたIGMiRAGを提案する。
- 参考スコア(独自算出の注目度): 33.00642870872058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) equips large language models (LLMs) with reliable knowledge memory. To strengthen cross-text associations, recent research integrates graphs and hypergraphs into RAG to capture pairwise and multi-entity relations as structured links. However, their misaligned memory organization necessitates costly, disjointed retrieval. To address these limitations, we propose IGMiRAG, a framework inspired by human intuition-guided reasoning. It constructs a hierarchical heterogeneous hypergraph to align multi-granular knowledge, incorporating deductive pathways to simulate realistic memory structures. During querying, IGMiRAG distills intuitive strategies via a question parser to control mining depth and memory window, and activates instantaneous memories as anchors using dual-focus retrieval. Mirroring human intuition, the framework guides retrieval resource allocation dynamically. Furthermore, we design a bidirectional diffusion algorithm that navigates deductive paths to mine in-depth memories, emulating human reasoning processes. Extensive evaluations indicate IGMiRAG outperforms the state-of-the-art baseline by 4.8% EM and 5.0% F1 overall, with token costs adapting to task complexity (average 6.3k+, minimum 3.0k+). This work presents a cost-effective RAG paradigm that improves both efficiency and effectiveness.
- Abstract(参考訳): Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)に信頼性のある知識メモリを装備する。
クロステキストアソシエーションを強化するために、最近の研究はグラフとハイパーグラフをRAGに統合し、構造化リンクとしてペアとマルチエンタリティの関係を捉える。
しかし、それらの不整合記憶機構は、高価な不整合検索を必要とする。
これらの制約に対処するため,人間の直観誘導推論に触発されたIGMiRAGを提案する。
階層的なヘテロジニアスハイパーグラフを構築して、現実的な記憶構造をシミュレートするために導出経路を組み込む。
クエリ中、IGMiRAGは質問パーサを介して直感的な戦略を抽出し、マイニング深さとメモリウィンドウを制御し、二重焦点検索を用いてアンカーとして瞬時記憶を活性化する。
人間の直感を反映して、このフレームワークは検索リソースの割り当てを動的にガイドする。
さらに,人間の推論過程をエミュレートした双方向拡散アルゴリズムを設計する。
IGMiRAGは全体の4.8%のEMと5.0%のF1を上回り、トークンコストはタスクの複雑さに適応している(平均6.3k+、最低3.0k+)。
本研究は,効率性と効率性を両立させる費用対効果のRAGパラダイムを提案する。
関連論文リスト
- HELP: HyperNode Expansion and Logical Path-Guided Evidence Localization for Accurate and Efficient GraphRAG [53.30561659838455]
大きな言語モデル(LLM)は、しばしば固有の知識境界と幻覚に苦しむ。
Retrieval-Augmented Generation (RAG) は、マルチホップ推論に不可欠な構造的相互依存性をしばしば見落としている。
ヘルプは、複数の単純でマルチホップなQAベンチマークで競合性能を達成し、グラフベースのRAGベースラインよりも28.8$times$のスピードアップを実現している。
論文 参考訳(メタデータ) (2026-02-24T14:05:29Z) - VimRAG: Navigating Massive Visual Context in Retrieval-Augmented Generation via Multimodal Memory Graph [42.348770377488094]
VimRAGは、テキスト、画像、ビデオにまたがるマルチモーダル検索拡張推論に適したフレームワークである。
軌道レベルの報酬から段階的妥当性を分離するグラフガイド型ポリシー最適化手法を提案する。
実験により、VimRAGは様々なマルチモーダルRAGベンチマークにおける最先端のパフォーマンスを一貫して達成していることが示された。
論文 参考訳(メタデータ) (2026-02-13T09:05:09Z) - Understand Then Memory: A Cognitive Gist-Driven RAG Framework with Global Semantic Diffusion [14.538534837583931]
Retrieval-Augmented Generation (RAG)は、外部知識を取り入れることで、LLMの幻覚を効果的に緩和する。
本稿では,認知記憶過程をシミュレートするRAGフレームワークであるCogitoRAGを提案する。
CogitoRAGは最先端のRAG手法よりも優れており、複雑な知識の統合や推論において優れた能力を示している。
論文 参考訳(メタデータ) (2026-02-11T12:58:08Z) - MemRec: Collaborative Memory-Augmented Agentic Recommender System [57.548438733740504]
我々はメモリ管理から推論をアーキテクチャ的に分離するフレームワークであるMemRecを提案する。
MemRecは動的コラボレーティブメモリグラフを管理する専用のLM_Memを導入した。
4つのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-01-13T18:51:16Z) - Improving Multi-step RAG with Hypergraph-based Memory for Long-Context Complex Relational Modeling [83.29209853451697]
多段階検索強化世代(RAG)は,大規模言語モデル(LLM)の拡張戦略として広く採用されている。
我々はHGMemというハイパーグラフベースのメモリ機構を導入し、複雑な推論とグローバルな理解のためにメモリの概念を動的に表現的構造に拡張する。
提案手法では,ハイパーエッジが異なるメモリ単位に対応するハイパーグラフとして表現され,メモリ内での高次相互作用の進行的形成を可能にする。
論文 参考訳(メタデータ) (2025-12-30T03:13:10Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - EcphoryRAG: Re-Imagining Knowledge-Graph RAG via Human Associative Memory [0.0]
本稿では,エンティティ中心の知識グラフRAGフレームワークであるEcphoryRAGを紹介する。
インデックス作成中、EcphoryRAGは対応するメタデータを持つコアエンティティのみを抽出し、格納する。
検索には、まずクエリからキューエンティティを抽出し、スケーラブルなマルチホップ連想検索を実行する。
論文 参考訳(メタデータ) (2025-10-10T03:07:27Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Accelerating Adaptive Retrieval Augmented Generation via Instruction-Driven Representation Reduction of Retrieval Overlaps [16.84310001807895]
本稿では,A-RAG法に適用可能なモデルに依存しないアプローチを提案する。
具体的には、キャッシュアクセスと並列生成を使用して、それぞれプリフィルとデコードステージを高速化する。
論文 参考訳(メタデータ) (2025-05-19T05:39:38Z) - From RAG to Memory: Non-Parametric Continual Learning for Large Language Models [6.380729797938521]
検索強化世代(RAG)は、新しい情報を導入する主要な方法となっている。
最近のRAGは、知識グラフのような様々な構造を持つベクトル埋め込みを拡大して、いくつかのギャップ、すなわちセンスメイキングと連想性に対処している。
我々は,現実的,感覚的,連想的なメモリタスクにおいて,標準RAGを総合的に上回るフレームワークであるHippoRAG 2を提案する。
論文 参考訳(メタデータ) (2025-02-20T18:26:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。