論文の概要: Enhancing Long Document Long Form Summarisation with Self-Planning
- arxiv url: http://arxiv.org/abs/2512.17179v1
- Date: Fri, 19 Dec 2025 02:37:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.220815
- Title: Enhancing Long Document Long Form Summarisation with Self-Planning
- Title(参考訳): セルフプランニングによる長文長文要約の強化
- Authors: Xiaotang Du, Rohit Saxena, Laura Perez-Beltrachini, Pasquale Minervini, Ivan Titov,
- Abstract要約: 本稿では,長い文脈の要約,ハイライト誘導生成のための新しいアプローチを提案する。
本フレームワークは,重要コンテンツを特定するための自己計画手法を適用し,その計画に条件付き要約を生成する。
- 参考スコア(独自算出の注目度): 29.76306977276126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel approach for long context summarisation, highlight-guided generation, that leverages sentence-level information as a content plan to improve the traceability and faithfulness of generated summaries. Our framework applies self-planning methods to identify important content and then generates a summary conditioned on the plan. We explore both an end-to-end and two-stage variants of the approach, finding that the two-stage pipeline performs better on long and information-dense documents. Experiments on long-form summarisation datasets demonstrate that our method consistently improves factual consistency while preserving relevance and overall quality. On GovReport, our best approach has improved ROUGE-L by 4.1 points and achieves about 35% gains in SummaC scores. Qualitative analysis shows that highlight-guided summarisation helps preserve important details, leading to more accurate and insightful summaries across domains.
- Abstract(参考訳): 文レベルの情報をコンテンツプランとして活用し、生成した要約のトレーサビリティと忠実性を改善する。
本フレームワークは,重要コンテンツを特定するための自己計画手法を適用し,その計画に条件付き要約を生成する。
このアプローチのエンドツーエンド版と2段階版の両方について検討し、2段階のパイプラインが長文と情報密度の文書でより優れたパフォーマンスを発揮することを発見した。
長文要約データセットの実験により,本手法は信頼性と全体的な品質を保ちながら,一貫した事実整合性向上を図っている。
GovReportでは、ROUGE-Lを4.1ポイント改善し、SummaCスコアで約35%向上しました。
質的な分析は、ハイライト誘導の要約が重要な詳細を保存するのに役立ち、ドメイン間のより正確で洞察に富んだ要約をもたらすことを示している。
関連論文リスト
- Introducing Spotlight: A Novel Approach for Generating Captivating Key Information from Documents [25.75158276797885]
本稿では,文書の最も説得力のある側面を強調することで,簡潔で魅力的な物語を生成する,情報抽出のための新しいパラダイムであるSpotlightを紹介する。
我々の総合的な評価は、得られたモデルは、精度の高いキー要素を識別するだけでなく、可読性を高め、元のドキュメントのエンゲージメント値を高めることを実証している。
論文 参考訳(メタデータ) (2025-09-13T18:18:37Z) - Topic-Guided Reinforcement Learning with LLMs for Enhancing Multi-Document Summarization [49.61589046694085]
マルチドキュメント要約におけるコンテンツ選択を改善するためのトピック誘導型強化学習手法を提案する。
まず、トピックラベル付きモデルに明示的にプロンプトすることで、生成した要約の情報性が向上することを示す。
論文 参考訳(メタデータ) (2025-09-11T21:01:54Z) - UMB@PerAnsSumm 2025: Enhancing Perspective-Aware Summarization with Prompt Optimization and Supervised Fine-Tuning [8.095763327154335]
本稿では,パーアンサム共有タスク(PerAnsSumm Shared Task)について,パースペクティブ・スパン識別とパースペクティブ・アウェア・サマリゼーションを包含するアプローチを提案する。
スパン識別には、平均化によって3つのトランスフォーマーモデルを統合するアンサンブル学習を採用し、個々のモデルの強みを利用する。
要約のために、キーフレーズを組み込んだ一連のCoT(Chain-of-Thought)を設計し、要約生成を管理可能なステップに導く。
論文 参考訳(メタデータ) (2025-03-14T06:29:51Z) - Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - SummIt: Iterative Text Summarization via ChatGPT [12.966825834765814]
本稿では,ChatGPTのような大規模言語モデルに基づく反復的なテキスト要約フレームワークSummItを提案する。
我々のフレームワークは、自己評価とフィードバックによって生成された要約を反復的に洗練することを可能にする。
また, 繰り返し改良の有効性を検証し, 過補正の潜在的な問題を特定するために, 人間の評価を行う。
論文 参考訳(メタデータ) (2023-05-24T07:40:06Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - PoBRL: Optimizing Multi-Document Summarization by Blending Reinforcement
Learning Policies [68.8204255655161]
マルチドキュメントの要約を解くための強化学習ベースのフレームワーク PoBRL を提案する。
私たちの戦略は、この多対象最適化を、強化学習によって個別に解決できるさまざまなサブ問題に分離します。
実験結果から,複数のマルチドキュメントデータセットにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2021-05-18T02:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。