論文の概要: Cog-RAG: Cognitive-Inspired Dual-Hypergraph with Theme Alignment Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2511.13201v1
- Date: Mon, 17 Nov 2025 10:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.120798
- Title: Cog-RAG: Cognitive-Inspired Dual-Hypergraph with Theme Alignment Retrieval-Augmented Generation
- Title(参考訳): Cog-RAG:認知にインスパイアされた2次元ハイパーグラフ
- Authors: Hao Hu, Yifan Feng, Ruoxue Li, Rundong Xue, Xingliang Hou, Zhiqiang Tian, Yue Gao, Shaoyi Du,
- Abstract要約: 本稿では,テーマ・アライン・デュアルハイパグラフRAGフレームワークを提案する。テーマ・アライン・デュアルハイパグラフ(Cog-RAG)は,テーマ・ハイパーグラフを用いて,チャンク間セマンティック構造とエンティティ・ハイパーグラフをキャプチャし,高階意味関係をモデル化する。
実験の結果,Cog-RAGは既存の最先端のベースラインアプローチを著しく上回っていることがわかった。
- 参考スコア(独自算出の注目度): 43.737415090081555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) enhances the response quality and domain-specific performance of large language models (LLMs) by incorporating external knowledge to combat hallucinations. In recent research, graph structures have been integrated into RAG to enhance the capture of semantic relations between entities. However, it primarily focuses on low-order pairwise entity relations, limiting the high-order associations among multiple entities. Hypergraph-enhanced approaches address this limitation by modeling multi-entity interactions via hyperedges, but they are typically constrained to inter-chunk entity-level representations, overlooking the global thematic organization and alignment across chunks. Drawing inspiration from the top-down cognitive process of human reasoning, we propose a theme-aligned dual-hypergraph RAG framework (Cog-RAG) that uses a theme hypergraph to capture inter-chunk thematic structure and an entity hypergraph to model high-order semantic relations. Furthermore, we design a cognitive-inspired two-stage retrieval strategy that first activates query-relevant thematic content from the theme hypergraph, and then guides fine-grained recall and diffusion in the entity hypergraph, achieving semantic alignment and consistent generation from global themes to local details. Our extensive experiments demonstrate that Cog-RAG significantly outperforms existing state-of-the-art baseline approaches.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の応答品質とドメイン固有性能を向上させる。
近年, グラフ構造がRAGに統合され, 実体間の意味的関係の獲得が促進されている。
しかし、主に、複数のエンティティ間の高次の関連を制限する、低次のペアワイズなエンティティ関係に焦点を当てている。
ハイパーグラフのアプローチは、ハイパーエッジを介してマルチエンタリティ相互作用をモデル化することで、この制限に対処するが、一般的にはチャンク間のエンティティレベルの表現に制約され、グローバルなテーマ組織を見下ろし、チャンクをまたいでアライメントする。
人間の推論におけるトップダウン認知プロセスからインスピレーションを得たテーマアラインなデュアルハイパグラフRAGフレームワーク(Cog-RAG)を提案する。
さらに、まずテーマハイパーグラフからクエリ関連テーマの内容を活性化し、その後、エンティティハイパーグラフの微細なリコールと拡散をガイドし、グローバルテーマから局所的な詳細へセマンティックアライメントと一貫した生成を実現する、認知に着想を得た2段階検索戦略を設計する。
我々の広範な実験は、Cog-RAGが既存の最先端のベースラインアプローチを著しく上回っていることを示している。
関連論文リスト
- IAR2: Improving Autoregressive Visual Generation with Semantic-Detail Associated Token Prediction [77.06211178777939]
IAR2は、階層的なセマンティックディーテール合成プロセスを可能にする高度な自己回帰フレームワークである。
我々は、IAR2が自動回帰画像生成のための新しい最先端技術を設定し、ImageNet上で1.50のFIDを達成することを示す。
論文 参考訳(メタデータ) (2025-10-08T12:08:21Z) - Youtu-GraphRAG: Vertically Unified Agents for Graph Retrieval-Augmented Complex Reasoning [32.78218766121055]
グラフ検索拡張生成(GraphRAG)は,複雑な推論において,大規模言語モデルを効果的に拡張した。
本稿では,フレームワーク全体を複雑な統合として結合する,垂直に統一されたエージェントパラダイムYoutu-GraphRAGを提案する。
論文 参考訳(メタデータ) (2025-08-27T13:13:20Z) - Cross-Granularity Hypergraph Retrieval-Augmented Generation for Multi-hop Question Answering [49.43814054718318]
マルチホップ質問応答 (MHQA) は、正しい回答を得るために複数の経路に散在する知識を統合する必要がある。
従来の検索拡張生成法(RAG)は主に粗い粒度のテキスト意味的類似性に焦点を当てている。
本稿では,HGRAG for MHQAという新しいRAG手法を提案する。
論文 参考訳(メタデータ) (2025-08-15T06:36:13Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z) - HGFormer: Topology-Aware Vision Transformer with HyperGraph Learning [14.344989900296968]
知覚探索のためのハイパーグラフの概念を紹介する。
具体的には,HyperGraph Transformer (HGFormer) と呼ばれるトポロジ対応の視覚変換器を提案する。
我々は効果的で統一的な表現を開発し、鮮明で詳細なシーンの描写を実現している。
論文 参考訳(メタデータ) (2025-04-03T09:58:01Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。