論文の概要: End-to-End Segmentation-based News Summarization
- arxiv url: http://arxiv.org/abs/2110.07850v1
- Date: Fri, 15 Oct 2021 04:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:13:50.078090
- Title: End-to-End Segmentation-based News Summarization
- Title(参考訳): エンドツーエンドセグメンテーションに基づくニュース要約
- Authors: Yang Liu, Chenguang Zhu, Michael Zeng
- Abstract要約: 本稿では,ニュース記事を複数のセクションに分割し,各セクションに対応する要約を生成するタスクを紹介する。
まず、セクションとアライメントスタイルのセクション要約を備えた27Kのニュース記事からなるデータセット、SegNewsを作成し、利用可能にします。
次に,事前学習した言語モデルに適応したセグメンテーションに基づく新しい言語生成モデルを提案する。
- 参考スコア(独自算出の注目度): 15.549631631269198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we bring a new way of digesting news content by introducing
the task of segmenting a news article into multiple sections and generating the
corresponding summary to each section. We make two contributions towards this
new task. First, we create and make available a dataset, SegNews, consisting of
27k news articles with sections and aligned heading-style section summaries.
Second, we propose a novel segmentation-based language generation model adapted
from pre-trained language models that can jointly segment a document and
produce the summary for each section. Experimental results on SegNews
demonstrate that our model can outperform several state-of-the-art
sequence-to-sequence generation models for this new task.
- Abstract(参考訳): 本稿では,ニュース記事を複数のセクションに分割し,各セクションに対応する要約を生成するタスクを導入することで,ニュースコンテンツをダイジェストする新しい方法を提案する。
私たちはこの新しいタスクに2つの貢献をします。
まず、セクションとアライメントスタイルのセクション要約を備えた27Kのニュース記事からなるデータセット、SegNewsを作成し、利用可能にします。
第2に,文書を協調的に分割し,各節の要約を生成する,事前訓練された言語モデルに適応した新たなセグメンテーションベース言語生成モデルを提案する。
segnewsの実験結果は、この新タスクの最先端のシーケンシャル・ツー・シーケンス生成モデルを上回ることを証明している。
関連論文リスト
- Write Summary Step-by-Step: A Pilot Study of Stepwise Summarization [48.57273563299046]
本稿では,新たな文書が提案されるたびに追加の要約を生成するステップワイド要約の課題を提案する。
追加された要約は、新たに追加されたコンテンツを要約するだけでなく、以前の要約と一貫性を持たなければならない。
SSGは,自動計測と人的評価の両面から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-06-08T05:37:26Z) - From Text Segmentation to Smart Chaptering: A Novel Benchmark for
Structuring Video Transcriptions [63.11097464396147]
音声コンテンツに焦点をあてた新しいベンチマークYTSegを導入し、その内容は本質的に非構造的であり、トポロジと構造的にも多様である。
また,高効率な階層分割モデルMiniSegを導入する。
論文 参考訳(メタデータ) (2024-02-27T15:59:37Z) - Universal Segmentation at Arbitrary Granularity with Language
Instruction [59.76130089644841]
言語命令のガイダンスを用いて任意の意味レベルでセグメンテーションを行うことができるユニバーサルセグメンテーションモデルUniLSegを提案する。
UniLSegをトレーニングするために、元の多様な分布から統一されたデータ形式にタスク群を再構成し、セグメンテーションターゲットを入力として記述したテキストと対応するマスクを出力する。
論文 参考訳(メタデータ) (2023-12-04T04:47:48Z) - VideoXum: Cross-modal Visual and Textural Summarization of Videos [54.0985975755278]
我々は新しい共同ビデオとテキスト要約タスクを提案する。
目標は、短縮されたビデオクリップと、長いビデオから対応するテキスト要約の両方を生成することだ。
生成された短縮ビデオクリップとテキストナラティブは、セマンティックに適切に調整されるべきである。
論文 参考訳(メタデータ) (2023-03-21T17:51:23Z) - NEWTS: A Corpus for News Topic-Focused Summarization [9.872518517174498]
本稿では,CNN/Dailymailデータセットに基づく最初の話題要約コーパスを提案する。
提案手法の有効性を検証し,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-05-31T10:01:38Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Generating Representative Headlines for News Stories [31.67864779497127]
同じ出来事をニュースに報告している記事のグループ化は、読者がニュースを消費するのを助ける一般的な方法である。
各ストーリーの代表的見出しを効率的かつ効果的に生成することは、依然として困難な研究課題である。
我々は,人間のアノテーションを使わずに大規模世代モデルを訓練するための遠隔監視手法を開発した。
論文 参考訳(メタデータ) (2020-01-26T02:08:22Z) - Two-Level Transformer and Auxiliary Coherence Modeling for Improved Text
Segmentation [9.416757363901295]
単純だが明示的なコヒーレンスモデリングを用いたテキストセグメンテーションのための新しい教師付きモデルを提案する。
我々のモデルは、2つの階層的に連結されたトランスフォーマーネットワークからなるニューラルネットワークであり、文レベルのセグメンテーション目標と、正しい文列と腐敗した文列を区別するコヒーレンス目標を結合するマルチタスク学習モデルである。
論文 参考訳(メタデータ) (2020-01-03T17:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。