論文の概要: Towards Abstractive Timeline Summarisation using Preference-based
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2211.07596v2
- Date: Thu, 2 Nov 2023 21:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 18:30:29.849540
- Title: Towards Abstractive Timeline Summarisation using Preference-based
Reinforcement Learning
- Title(参考訳): 選好に基づく強化学習を用いた抽象的タイムライン要約
- Authors: Yuxuan Ye and Edwin Simpson
- Abstract要約: 本稿では,複数のニュースソースから報告されるイベントの時系列を要約する新しいパイプラインを提案する。
抽象的な要約のためのトランスフォーマーに基づくモデルは、長い文書のコヒーレントで簡潔な要約を生成する。
抽出要約は情報源に忠実であるが、読みにくく、余分な情報や不要な情報を含んでいる可能性がある。
- 参考スコア(独自算出の注目度): 3.6640004265358477
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel pipeline for summarising timelines of events
reported by multiple news sources. Transformer-based models for abstractive
summarisation generate coherent and concise summaries of long documents but can
fail to outperform established extractive methods on specialised tasks such as
timeline summarisation (TLS). While extractive summaries are more faithful to
their sources, they may be less readable and contain redundant or unnecessary
information. This paper proposes a preference-based reinforcement learning
(PBRL) method for adapting pretrained abstractive summarisers to TLS, which can
overcome the drawbacks of extractive timeline summaries. We define a compound
reward function that learns from keywords of interest and pairwise preference
labels, which we use to fine-tune a pretrained abstractive summariser via
offline reinforcement learning. We carry out both automated and human
evaluation on three datasets, finding that our method outperforms a comparable
extractive TLS method on two of the three benchmark datasets, and participants
prefer our method's summaries to those of both the extractive TLS method and
the pretrained abstractive model. The method does not require expensive
reference summaries and needs only a small number of preferences to align the
generated summaries with human preferences.
- Abstract(参考訳): 本稿では,複数のニュースソースが報告したイベントのタイムラインを要約する新しいパイプラインを提案する。
抽象要約のためのトランスフォーマティブモデルでは、長い文書のコヒーレントかつ簡潔な要約を生成するが、タイムライン要約(tls)のような特殊化タスクにおいて確立された抽出メソッドを上回らない可能性がある。
抽出要約は情報源に忠実であるが、読みやすく、冗長または不要な情報を含んでいる可能性がある。
本稿では,事前学習された抽象要約語をTLSに適応させるために,選好に基づく強化学習(PBRL)法を提案する。
我々は、興味のあるキーワードとペアの選好ラベルから学習する複合報酬関数を定義し、オフラインの強化学習を通じて事前訓練された抽象要約器を微調整する。
提案手法は,3つのベンチマークデータセットのうちの2つにおいて,提案手法が同等の抽出TLS法より優れており,参加者は抽出TLS法と事前学習された抽象モデルの両方と比較して,提案手法の要約を好んでいる。
この方法は高価な参照要約を必要とせず、生成した要約を人間の好みに合わせるために少数の好みしか必要としない。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Source Identification in Abstractive Summarization [0.8883733362171033]
生成された要約文に必須情報を含む入力文を$textitsource文として定義し、ソース文を解析して抽象的な要約がどのように作られるかを研究する。
我々は,複数の手法を比較し,タスクの強いベースラインを確立するために,自動ソース文検出を定式化する。
実験結果から, パープレキシティに基づく手法は, 比較的抽象的条件下では良好に動作し, 類似性に基づく手法は比較的抽出的条件下では頑健であることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:09:09Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Towards Realistic Low-resource Relation Extraction: A Benchmark with
Empirical Baseline Study [51.33182775762785]
本稿では,低リソース環境下での関係抽出システムを構築するための実証的研究について述べる。
低リソース環境での性能を評価するための3つのスキームについて検討する。 (i) ラベル付きラベル付きデータを用いた異なるタイプのプロンプトベース手法、 (ii) 長期分布問題に対処する多様なバランシング手法、 (iii) ラベル付きインドメインデータを生成するためのデータ拡張技術と自己学習。
論文 参考訳(メタデータ) (2022-10-19T15:46:37Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - OTExtSum: Extractive Text Summarisation with Optimal Transport [45.78604902572955]
テキスト要約を最適輸送(OT)問題として初めて定式化した非学習型手法を提案する。
提案手法は,最先端の非学習的手法と最近の学習的手法をROUGEメートル法で比較した。
論文 参考訳(メタデータ) (2022-04-21T13:25:34Z) - A New Sentence Extraction Strategy for Unsupervised Extractive
Summarization Methods [26.326800624948344]
本稿では,情報理論の観点から,抽出テキスト要約手法の課題をモデル化する。
特徴分布の改善と要約文の相互情報の低減を目的として,新たな文抽出手法を提案する。
論文 参考訳(メタデータ) (2021-12-06T18:00:02Z) - The Summary Loop: Learning to Write Abstractive Summaries Without
Examples [21.85348918324668]
本研究は,与えられた長さ制約に対するカバレッジとフラエンシの組み合わせを最大化することに基づく,教師なし抽象的要約に対する新しいアプローチを提案する。
主要な用語は元のドキュメントから隠蔽され、現在の生成された要約を使ってカバレッジモデルで満たされなければならない。
一般的なニュース要約データセットでテストすると、従来の教師なし手法よりも2R-1ポイント以上性能が向上する。
論文 参考訳(メタデータ) (2021-05-11T23:19:46Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。