論文の概要: Structured Knowledge Representation through Contextual Pages for Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2601.09402v1
- Date: Wed, 14 Jan 2026 11:44:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.385075
- Title: Structured Knowledge Representation through Contextual Pages for Retrieval-Augmented Generation
- Title(参考訳): 検索型生成のための文脈ページによる構造化知識表現
- Authors: Xinze Li, Zhenghao Liu, Haidong Xin, Yukun Yan, Shuo Wang, Zheni Zeng, Sen Mei, Ge Yu, Maosong Sun,
- Abstract要約: PAGERは、RAGのためのページ駆動の自律的知識表現フレームワークである。
関連文書を反復的に検索して洗練し、各スロットをポップアップさせ、最終的にコヒーレントなページを構成する。
実験の結果、PAGERはすべてのRAGベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 53.768256130061765
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) enhances Large Language Models (LLMs) by incorporating external knowledge. Recently, some works have incorporated iterative knowledge accumulation processes into RAG models to progressively accumulate and refine query-related knowledge, thereby constructing more comprehensive knowledge representations. However, these iterative processes often lack a coherent organizational structure, which limits the construction of more comprehensive and cohesive knowledge representations. To address this, we propose PAGER, a page-driven autonomous knowledge representation framework for RAG. PAGER first prompts an LLM to construct a structured cognitive outline for a given question, which consists of multiple slots representing a distinct knowledge aspect. Then, PAGER iteratively retrieves and refines relevant documents to populate each slot, ultimately constructing a coherent page that serves as contextual input for guiding answer generation. Experiments on multiple knowledge-intensive benchmarks and backbone models show that PAGER consistently outperforms all RAG baselines. Further analyses demonstrate that PAGER constructs higher-quality and information-dense knowledge representations, better mitigates knowledge conflicts, and enables LLMs to leverage external knowledge more effectively. All code is available at https://github.com/OpenBMB/PAGER.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)は、外部知識を取り入れることで、Large Language Models (LLM)を強化する。
近年,RAGモデルに反復的知識蓄積プロセスを導入し,クエリ関連知識を段階的に蓄積・洗練し,より包括的な知識表現を構築している研究もある。
しかしながら、これらの反復的プロセスは、より包括的で凝集的な知識表現の構築を制限する、一貫性のある組織構造を欠くことが多い。
そこで本稿では,RAGのためのページ駆動型自律的知識表現フレームワークであるPAGERを提案する。
PAGERはまず、LLMに与えられた質問に対する構造化された認知アウトラインを構築するよう促す。
そして、PAGERは関連文書を反復的に検索して各スロットをポップアップさせ、最終的に応答生成を導くためのコンテキスト入力として機能するコヒーレントなページを構築する。
複数の知識集約型ベンチマークとバックボーンモデルの実験は、PAGERがすべてのRAGベースラインを一貫して上回っていることを示している。
さらに、PAGERは、高品質で情報量の多い知識表現を構築し、知識の衝突を緩和し、LCMが外部知識をより効果的に活用できることを示す。
すべてのコードはhttps://github.com/OpenBMB/PAGER.comで入手できる。
関連論文リスト
- MegaRAG: Multimodal Knowledge Graph-Based Retrieval Augmented Generation [17.382062394739588]
大規模言語モデル(LLM)は、コンテキストウィンドウが限られているため、高レベルな概念的理解と包括的理解に苦慮する。
本稿では,マルチモーダルな知識グラフに基づくRAGを導入し,より優れたコンテンツ理解のためのクロスモーダル推論を実現する。
本手法では,知識グラフの構築,検索フェーズ,回答生成プロセスに視覚的手がかりを取り入れた。
論文 参考訳(メタデータ) (2025-11-26T05:00:03Z) - DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - Oreo: A Plug-in Context Reconstructor to Enhance Retrieval-Augmented Generation [28.568010424711563]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) の機能強化を目的としている。
生成に使用する前に検索したチャンクを洗練するために設計された,コンパクトで効率的な,プラグ可能なモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-18T16:38:39Z) - RAS: Retrieval-And-Structuring for Knowledge-Intensive LLM Generation [46.237206695937246]
本稿では,クエリ固有の知識グラフを動的に構築するフレームワークであるRetrieval-And-Structuring (RAS)を提案する。
7つの知識集約ベンチマークでは、RASは一貫して強力なベースラインを上回っている。
この結果から,動的クエリ固有知識構造化は,言語モデル生成における推論精度と堅牢性を向上させるための堅牢な経路を提供することが示された。
論文 参考訳(メタデータ) (2025-02-16T05:01:49Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。