論文の概要: SuperWriter: Reflection-Driven Long-Form Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.04180v1
- Date: Wed, 04 Jun 2025 17:27:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.491459
- Title: SuperWriter: Reflection-Driven Long-Form Generation with Large Language Models
- Title(参考訳): SuperWriter: 大きな言語モデルによるリフレクション駆動型長文生成
- Authors: Yuhao Wu, Yushi Bai, Zhiqiang Hu, Juanzi Li, Roy Ka-Wei Lee,
- Abstract要約: SuperWriter-Agentは、長文生成の品質と一貫性を高めるために設計されたフレームワークである。
この枠組みに基づき、7B SuperWriter-LMをトレーニングするための教師付き微調整データセットを構築した。
様々なベンチマークで実証された結果は、SuperWriter-LMが最先端のパフォーマンスを実現していることを示している。
- 参考スコア(独自算出の注目度): 34.723917246316205
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Long-form text generation remains a significant challenge for large language models (LLMs), particularly in maintaining coherence, ensuring logical consistency, and preserving text quality as sequence length increases. To address these limitations, we propose SuperWriter-Agent, an agent-based framework designed to enhance the quality and consistency of long-form text generation. SuperWriter-Agent introduces explicit structured thinking-through planning and refinement stages into the generation pipeline, guiding the model to follow a more deliberate and cognitively grounded process akin to that of a professional writer. Based on this framework, we construct a supervised fine-tuning dataset to train a 7B SuperWriter-LM. We further develop a hierarchical Direct Preference Optimization (DPO) procedure that uses Monte Carlo Tree Search (MCTS) to propagate final quality assessments and optimize each generation step accordingly. Empirical results across diverse benchmarks demonstrate that SuperWriter-LM achieves state-of-the-art performance, surpassing even larger-scale baseline models in both automatic evaluation and human evaluation. Furthermore, comprehensive ablation studies demonstrate the effectiveness of hierarchical DPO and underscore the value of incorporating structured thinking steps to improve the quality of long-form text generation.
- Abstract(参考訳): 長文テキスト生成は大規模言語モデル(LLM)にとって重要な課題であり、特に一貫性の維持、論理的一貫性の確保、シーケンス長の増加に伴うテキスト品質の維持が重要である。
これらの制約に対処するために,長文生成の品質と一貫性を高めるために,エージェントベースのフレームワークであるSuperWriter-Agentを提案する。
SuperWriter-Agentは、明確な構造化された思考スルー計画と改善段階を生成パイプラインに導入し、モデルにプロのライターのそれに似た、より意図的で認知的に根ざしたプロセスに従うように指示する。
この枠組みに基づき、7B SuperWriter-LMをトレーニングするための教師付き微調整データセットを構築した。
さらに,モンテカルロ木探索(MCTS)を用いて最終品質評価を伝播し,各生成ステップを最適化する階層的直接選好最適化(DPO)手法を開発した。
様々なベンチマークによる実証結果から、SuperWriter-LMは、自動評価と人的評価の両方において、より大規模なベースラインモデルを上回る、最先端のパフォーマンスを実現していることが示された。
さらに、包括的アブレーション研究は、階層的DPOの有効性を示し、長文生成の質を向上させるために構造化思考ステップを組み込むことの価値を強調している。
関連論文リスト
- WritingBench: A Comprehensive Benchmark for Generative Writing [87.48445972563631]
writeBenchは、6つのコア書き込みドメインと100の技術的記述を含む大規模言語モデル(LLM)を評価するために設計されたベンチマークである。
本稿では、LCMがインスタンス固有の評価基準を動的に生成することを可能にするクエリ依存評価フレームワークを提案する。
このフレームワークは、基準対応スコアリングのための微調整された批評家モデルによって補完され、スタイル、フォーマット、長さの評価を可能にする。
論文 参考訳(メタデータ) (2025-03-07T08:56:20Z) - Enhancing RWKV-based Language Models for Long-Sequence Text Generation [0.0]
本稿では、長文言語モデリングを改善するための適応時間ゲーティング機構を備えた拡張RWKVアーキテクチャを提案する。
本研究では,(1)グローバルコヒーレンスを保ちながら局所的な統語パターンを捉える位置認識畳み込みシフト演算子,(2)知識間の情報の流れを動的に制御する神経伝達情報ルーティング機構を提案する。
論文 参考訳(メタデータ) (2025-02-21T14:18:18Z) - LongDPO: Unlock Better Long-form Generation Abilities for LLMs via Critique-augmented Stepwise Information [76.26257306813899]
学術論文やリポジトリレベルのコード生成には,長文生成が不可欠だ。
選好学習と結果管理を併用する既存の手法は、拡張された文脈に対して詳細なフィードバックを提供するのに失敗することが多い。
プロセスの監督を取り入れた長文生成の促進を提案する。
論文 参考訳(メタデータ) (2025-02-04T08:25:17Z) - Summarizing long regulatory documents with a multi-step pipeline [2.2591852560804675]
長い規則文を要約するための2段階アーキテクチャの有効性は、使用するモデルによって異なることを示す。
コンテクスト長の短い抽象エンコーダ・デコーダモデルでは抽出ステップの有効性が異なるが、長文エンコーダ・デコーダモデルでは抽出ステップが性能を悪化させる。
論文 参考訳(メタデータ) (2024-08-19T08:07:25Z) - Progressive Generation of Long Text with Pretrained Language Models [83.62523163717448]
GPT-2のような大量のテキストコーパスで事前訓練された大規模言語モデル(LM)は、強力なオープンドメインテキストジェネレータである。
このようなモデルが、特に小さなコーパス上のターゲットドメインに微調整された場合、コヒーレントな長いテキストパスを生成することは依然として困難である。
本稿では,低解像度から高解像度の画像に触発されて,テキストを段階的に生成する簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2020-06-28T21:23:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。