論文の概要: OUTLINEFORGE: Hierarchical Reinforcement Learning with Explicit States for Scientific Writing
- arxiv url: http://arxiv.org/abs/2601.09858v1
- Date: Wed, 14 Jan 2026 20:37:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.893123
- Title: OUTLINEFORGE: Hierarchical Reinforcement Learning with Explicit States for Scientific Writing
- Title(参考訳): OUTLINEFORGE:科学書記のための明示的状態を用いた階層的強化学習
- Authors: Yilin Bao, Ziyao He, Zayden Yang,
- Abstract要約: 本稿では,科学的概要構築を長期計画問題とする強化学習フレームワークを提案する。
また、文書計画、入力利用、参照忠実度、概要組織、コンテンツレベルの事実精度を評価する学術論文生成のためのベンチマークも導入する。
- 参考スコア(独自算出の注目度): 5.930754928033565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific paper generation requires document-level planning and factual grounding, but current large language models, despite their strong local fluency, often fail in global structure, input coverage, and citation consistency. We present a reinforcement learning framework that casts scientific outline construction as a long-horizon planning problem over hierarchical document structures. Our approach models edit evolving outlines through structured actions, enabling the system to incrementally build a complete scientific manuscript. To support effective and stabilize learning,we introduce a two-stage optimization procedure consisting of (i) backward outline reconstruction from partial plans to enforce global structural consistency, and (ii) forward value-guided reinforcement learning with rewards explicitly modeling scientific correctness, discourse coherence, and citation fidelity. In addition, We further introduce a benchmark for scientific paper generation that evaluates document planning, input utilization, reference faithfulness, outline organization, and content-level factual accuracy. Our results show consistent improvements over strong neural and LLM baselines, particularly in long-range structural coherence and citation reliability.
- Abstract(参考訳): 科学的論文生成には文書レベルの計画と事実的根拠が必要であるが、現在の大きな言語モデルは、その強い局所的な流布にもかかわらず、大域的な構造、入力カバレッジ、引用一貫性に失敗することが多い。
本稿では,科学的概要構築を階層的な文書構造に対する長期計画問題とする強化学習フレームワークを提案する。
我々のアプローチモデルは、構造化された行動を通して進化するアウトラインを編集し、システムが完全に科学的な原稿を段階的に作成できるようにする。
効果的で安定した学習を支援するために,我々は2段階最適化手法を導入する。
一 グローバルな構造的整合性を強制する部分的な計画からの裏書き
二 科学的正当性、談話の整合性、引用忠実性を明確にモデル化した前向き価値誘導強化学習。
さらに,文献計画,入力利用,参照忠実度,概要組織,内容レベルの事実的正確性を評価する学術論文生成のベンチマークも導入する。
以上の結果から,特に長距離構造コヒーレンスと励振信頼性において,強いニューラルネットワークとLLMベースラインよりも一貫した改善が見られた。
関連論文リスト
- Paper2SysArch: Structure-Constrained System Architecture Generation from Scientific Papers [10.395280181257737]
テキストからダイアグラムの自動生成を定量的に評価するための新しいベンチマークを導入する。
3000の研究論文とそれに対応する高品質な地上構造図を組み合わせ、三段階評価指標を伴って構成されている。
論文を構造化・編集可能な図形に変換するために,マルチエージェントコラボレーションを活用したエンドツーエンドシステムPaper2Archを提案する。
論文 参考訳(メタデータ) (2025-11-22T12:24:30Z) - Structure-R1: Dynamically Leveraging Structural Knowledge in LLM Reasoning through Reinforcement Learning [29.722512436773638]
本稿では,検索したコンテンツを推論に最適化した構造化表現に変換するフレームワークであるtextscStructure-R1を提案する。
textscStructure-R1は、7Bスケールのバックボーンモデルとの競合性能を一貫して達成していることを示す。
我々の理論的分析は,情報密度と文脈的明瞭度を向上させることによって,構造化表現が推論をいかに促進するかを示す。
論文 参考訳(メタデータ) (2025-10-16T23:19:28Z) - Context-Aware Hierarchical Taxonomy Generation for Scientific Papers via LLM-Guided Multi-Aspect Clustering [59.54662810933882]
既存の分類体系の構築手法は、教師なしクラスタリングや大きな言語モデルの直接的プロンプトを利用しており、コヒーレンスと粒度の欠如が多かった。
LLM誘導型マルチアスペクト符号化と動的クラスタリングを統合したコンテキスト対応階層型階層型分類生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-23T15:12:58Z) - Beyond Chunking: Discourse-Aware Hierarchical Retrieval for Long Document Question Answering [51.7493726399073]
本稿では,長文質問応答を改善するための対話型階層型フレームワークを提案する。
このフレームワークには3つの重要な革新がある: 長文の専門的な談話解析、LLMに基づく談話関係ノードの拡張、構造誘導階層検索である。
論文 参考訳(メタデータ) (2025-05-26T14:45:12Z) - Align to Structure: Aligning Large Language Models with Structural Information [26.960069076925386]
本研究では,大規模言語モデルと人間のような談話構造を整合させて長文生成を向上する構造アライメントを提案する。
提案手法では,人間の文章に対する言論的特質に基づいて,詳細なトークンレベルの報酬を割り当てる。
論文 参考訳(メタデータ) (2025-04-04T17:40:04Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - HPT++: Hierarchically Prompting Vision-Language Models with Multi-Granularity Knowledge Generation and Improved Structure Modeling [39.14392943549792]
本稿では,階層型プロンプトチューニング(HPT)と呼ばれる新しい手法を提案し,構造化知識と従来の言語知識の同時モデリングを可能にする。
低レベルの即時学習のためのエンティティと属性間のペアワイズ関連をキャプチャする、関係誘導型アテンションモジュールを導入する。
全体意味論をモデル化する高レベルかつグローバルレベルのプロンプトを取り入れることで、提案された階層構造は、クロスレベルな相互リンクを偽造し、より複雑で長期的な関係を扱うようにモデルに権限を与える。
論文 参考訳(メタデータ) (2024-08-27T06:50:28Z) - Structure-aware Domain Knowledge Injection for Large Language Models [38.08691252042949]
StructTuningは、大規模言語モデル(LLM)をドメインスペシャリストに変換する方法論である。
従来の知識注入性能の100パーセントを達成しながら、トレーニングコーパスに必要なトレーニングコーパスをわずか5%削減します。
論文 参考訳(メタデータ) (2024-07-23T12:38:48Z) - Document Structure in Long Document Transformers [64.76981299465885]
長い文書は、しばしばセクションヘッダーや段落のような異なる機能で階層的に整理された要素を持つ構造を示す。
文書構造の不明瞭さにもかかわらず、自然言語処理(NLP)におけるその役割はいまだに不透明である。
長期文書変換モデルは事前学習中に文書構造の内部表現を取得するか?
事前トレーニング後に構造情報をモデルに伝達するにはどうすればよいのか、下流のパフォーマンスにどのように影響するのか?
論文 参考訳(メタデータ) (2024-01-31T08:28:06Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。