論文の概要: PT-RAG: Structure-Fidelity Retrieval-Augmented Generation for Academic Papers
- arxiv url: http://arxiv.org/abs/2602.13647v1
- Date: Sat, 14 Feb 2026 07:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.311689
- Title: PT-RAG: Structure-Fidelity Retrieval-Augmented Generation for Academic Papers
- Title(参考訳): PT-RAG:学術用紙の構造忠実検索生成
- Authors: Rui Yu, Tianyi Wang, Ruixia Liu, Yinglong Wang,
- Abstract要約: 本稿では,学術論文の階層構造を低エントロピー検索として扱うRAGフレームワークPT-RAGを提案する。
最初はネイティブ階層を継承し、ソースのエントロピー増加を防ぐ構造忠実度PaperTreeインデックスを構築する。
その後、クエリセマンティクスを関連するセクションに整列し、固定トークン予算の下で高関連性ルート・ツー・リーフパスを選択するパス誘導検索機構を設計する。
- 参考スコア(独自算出の注目度): 8.665160048483655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) is increasingly applied to question-answering over long academic papers, where accurate evidence allocation under a fixed token budget is critical. Existing approaches typically flatten academic papers into unstructured chunks during preprocessing, which destroys the native hierarchical structure. This loss forces retrieval to operate in a disordered space, thereby producing fragmented contexts, misallocating tokens to non-evidential regions under finite token budgets, and increasing the reasoning burden for downstream language models. To address these issues, we propose PT-RAG, an RAG framework that treats the native hierarchical structure of academic papers as a low-entropy retrieval prior. PT-RAG first inherits the native hierarchy to construct a structure-fidelity PaperTree index, which prevents entropy increase at the source. It then designs a path-guided retrieval mechanism that aligns query semantics to relevant sections and selects high relevance root-to-leaf paths under a fixed token budget, yielding compact, coherent, and low-entropy retrieval contexts. In contrast to existing RAG approaches, PT-RAG avoids entropy increase caused by destructive preprocessing and provides a native low-entropy structural basis for subsequent retrieval. To assess this design, we introduce entropy-based structural diagnostics that quantify retrieval fragmentation and evidence allocation accuracy. On three academic question-answering benchmarks, PT-RAG achieves consistently lower section entropy and evidence alignment cross entropy than strong baselines, indicating reduced context fragmentation and more precise allocation to evidential regions. These structural advantages directly translate into higher answer quality.
- Abstract(参考訳): 検索拡張世代(RAG)は、固定トークン予算の下で正確な証拠割り当てが不可欠である長期の学術論文に対する質問に対して、ますます適用されてきている。
既存のアプローチは、通常、学術論文を前処理中に非構造化のチャンクに平らにし、ネイティブ階層構造を破壊する。
この損失により、検索は混乱した空間で動作し、断片化されたコンテキストを生成し、有限のトークン予算の下でトークンを非証拠領域に配置し、下流言語モデルの推論負担を増大させる。
これらの課題に対処するため,学術論文の階層構造を低エントロピー検索として扱うRAGフレームワークPT-RAGを提案する。
PT-RAGは、まずネイティブ階層を継承し、ソースのエントロピー増加を防ぐ構造忠実度PaperTreeインデックスを構築する。
次に、クエリのセマンティクスを関連するセクションに整合させるパス誘導検索機構を設計し、固定トークン予算の下で高関係のルート・ツー・リーフパスを選択し、コンパクトでコヒーレントで低エントロピーな検索コンテキストを生成する。
既存のRAGアプローチとは対照的に、PT-RAGは破壊前処理によるエントロピー増加を回避し、その後の検索のためのネイティブな低エントロピー構造ベースを提供する。
この設計を評価するために,検索断片化とエビデンス割り当て精度を定量化するエントロピーに基づく構造診断手法を提案する。
3つの学術的問合せベンチマークにおいて、PT-RAGは強い基準線よりも断続的に低い区間エントロピーとアライメントアライメントアライメントアライメントエントロピーを達成し、文脈の断片化を減らし、顕在領域へのより正確な割り当てを示す。
これらの構造上の利点は、直接的により高い応答品質に変換される。
関連論文リスト
- PruneRAG: Confidence-Guided Query Decomposition Trees for Efficient Retrieval-Augmented Generation [19.832367438725306]
PruneRAGは、安定かつ効率的な推論を行うために構造化されたクエリ分解ツリーを構築する。
我々は,ゴールデンエビデンスを回収するが正しく使用しない事例を定量化するための指標として,エビデンス予測率を定義した。
論文 参考訳(メタデータ) (2026-01-16T06:38:17Z) - Disco-RAG: Discourse-Aware Retrieval-Augmented Generation [81.53888908988756]
生成プロセスに談話信号を注入する談話認識フレームワークであるディスコRAGを提案する。
提案手法は,チャンク内談話木を構築し,局所階層を捕捉し,クロスパスコヒーレンスをモデル化するためのチャンク間修辞グラフを構築する。
質問応答と長期文書要約ベンチマークの実験から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-07T20:32:50Z) - LeanRAG: Knowledge-Graph-Based Generation with Semantic Aggregation and Hierarchical Retrieval [10.566901995776025]
LeanRAGは知識集約と検索戦略を組み合わせたフレームワークです。
グラフ上のパス検索に関連するかなりのオーバーヘッドを軽減し、冗長な情報検索を最小限にする。
論文 参考訳(メタデータ) (2025-08-14T06:47:18Z) - You Don't Need Pre-built Graphs for RAG: Retrieval Augmented Generation with Adaptive Reasoning Structures [16.867592142212203]
大型言語モデル(LLM)はしばしば幻覚に悩まされ、知識を超えた質問を処理する際に、事実的に誤った文を生成する。
Retrieval-augmented Generation (RAG)は、LLM推論をサポートするために、知識ベースからクエリ関連コンテキストを取得することで、この問題に対処する。
既存のGraphベースのRAGメソッドは、コーパスをグラフに変換するためのコストの高いプロセスに依存しており、圧倒的なトークンコストとアップデートのレイテンシを導入している。
本稿では,推論時に推論構造を動的に抽出し,事前に構築したグラフを使わずに適応検索を誘導するLogicRAGを提案する。
論文 参考訳(メタデータ) (2025-08-08T08:07:40Z) - An Ontology-Driven Graph RAG for Legal Norms: A Structural, Temporal, and Deterministic Approach [0.0]
標準、平文検索は、法の階層的、横行的、因果的構造に盲目である。
本稿では,法則の形式構造とダイアクロニックな性質を明示的にモデル化することにより,これらの制約を克服するためのオントロジー駆動型フレームワークSAT-Graph RAGを紹介する。
論文 参考訳(メタデータ) (2025-04-29T18:36:57Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。