論文の概要: Controlled Text Reduction
- arxiv url: http://arxiv.org/abs/2210.13449v1
- Date: Mon, 24 Oct 2022 17:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 17:02:22.492915
- Title: Controlled Text Reduction
- Title(参考訳): テキストの縮小制御
- Authors: Aviv Slobodkin, Paul Roit, Eran Hirsch, Ori Ernst, Ido Dagan
- Abstract要約: textitControlled Text Reduction をスタンドアロンタスクとして形式化する。
モデルでは、対象情報すべてと対象情報のみを含む一貫性のあるテキストを生成する必要がある。
- 参考スコア(独自算出の注目度): 15.102190738450092
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Producing a reduced version of a source text, as in generic or focused
summarization, inherently involves two distinct subtasks: deciding on targeted
content and generating a coherent text conveying it. While some popular
approaches address summarization as a single end-to-end task, prominent works
support decomposed modeling for individual subtasks. Further, semi-automated
text reduction is also very appealing, where users may identify targeted
content while models would generate a corresponding coherent summary.
In this paper, we focus on the second subtask, of generating coherent text
given pre-selected content. Concretely, we formalize \textit{Controlled Text
Reduction} as a standalone task, whose input is a source text with marked spans
of targeted content ("highlighting"). A model then needs to generate a coherent
text that includes all and only the target information. We advocate the
potential of such models, both for modular fully-automatic summarization, as
well as for semi-automated human-in-the-loop use cases. Facilitating proper
research, we crowdsource high-quality dev and test datasets for the task.
Further, we automatically generate a larger "silver" training dataset from
available summarization benchmarks, leveraging a pretrained summary-source
alignment model. Finally, employing these datasets, we present a supervised
baseline model, showing promising results and insightful analyses.
- Abstract(参考訳): 汎用的あるいは集中的な要約のように、ソーステキストの縮小版を作成するには、本質的に2つの異なるサブタスクを含む: ターゲットコンテンツを決定することと、それを伝える一貫性のあるテキストを生成する。
いくつかの一般的なアプローチは、要約を単一のエンドツーエンドタスクとして扱う一方で、個々のサブタスクの分解モデリングをサポートする。
さらに、半自動テキストリダクションも非常に魅力的で、ユーザがターゲットコンテンツを特定し、モデルが対応するコヒーレント要約を生成する。
本稿では,事前選択されたコンテンツのコヒーレントテキストを生成する2番目のサブタスクに焦点を当てる。
具体的には,<textit{Controlled Text Reduction} を独立したタスクとして形式化し,その入力はターゲットコンテンツ(ハイライト)をマークしたソーステキストである。
モデルがすべてのターゲット情報を含む一貫性のあるテキストを生成する必要がある。
このようなモデルの可能性を,モジュール化された完全自動要約と,半自動型ループ型ユースケースの両方に提案する。
適切な調査を行うことで、タスクのための高品質な開発とテストデータセットをクラウドソースします。
さらに,事前学習されたサマリソースアライメントモデルを利用して,利用可能な要約ベンチマークから,より大きな"シルバー"トレーニングデータセットを自動的に生成する。
最後に、これらのデータセットを用いて教師付きベースラインモデルを示し、有望な結果と洞察に富んだ分析結果を示す。
関連論文リスト
- The Power of Summary-Source Alignments [62.76959473193149]
多文書要約(MDS)は難しい課題であり、しばしばサリエンスと冗長性検出のサブタスクに分解される。
参照要約とそのソース文書間の対応する文のアライメントを利用して、トレーニングデータを生成する。
本稿では,よりきめ細かな提案スパンレベルで適用することで,要約ソースアライメントフレームワークを拡張することを提案する。
論文 参考訳(メタデータ) (2024-06-02T19:35:19Z) - Multi-Review Fusion-in-Context [20.681734117825822]
接地テキスト生成には、コンテンツ選択とコンテンツ統合の両方が必要である。
最近の研究で、各ステップごとに別々のコンポーネントを持つモジュラーアプローチが提案されている。
本研究は,マルチドキュメント・セッティングにおけるモジュール・テキスト・ジェネレーションのさらなる探求の基盤となるものである。
論文 参考訳(メタデータ) (2024-03-22T17:06:05Z) - NEWTS: A Corpus for News Topic-Focused Summarization [9.872518517174498]
本稿では,CNN/Dailymailデータセットに基づく最初の話題要約コーパスを提案する。
提案手法の有効性を検証し,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-05-31T10:01:38Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - Topic Modeling Based Extractive Text Summarization [0.0]
本稿では,潜在トピックに基づいて内容をクラスタリングすることで,テキストを要約する新しい手法を提案する。
我々は、テキスト要約へのアプローチにおいて、より使用量が少なく挑戦的なWikiHowデータセットを活用している。
論文 参考訳(メタデータ) (2021-06-29T12:28:19Z) - Automated News Summarization Using Transformers [4.932130498861987]
我々は,テキスト要約のためのトランスフォーマーアーキテクチャに基づく事前学習モデルについて,包括的に比較する。
分析と比較のために,要約や人為的な要約に使用できるテキストデータを含むBBCニュースデータセットを用いた。
論文 参考訳(メタデータ) (2021-04-23T04:22:33Z) - Summary-Source Proposition-level Alignment: Task, Datasets and
Supervised Baseline [94.0601799665342]
資料の参照要約における文のアライメントは,補助的な要約作業として有用であった。
本稿では,2つの重要な新機能を導入しながら,要約ソースアライメントを明示的なタスクとして確立することを提案する。
我々は提案レベルのアライメントのための新しいトレーニングデータセットを作成し、利用可能な要約評価データから自動的に抽出する。
教師なしアプローチよりも優れたアライメント品質を示す教師付き命題アライメントベースラインモデルを提案する。
論文 参考訳(メタデータ) (2020-09-01T17:27:12Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。