論文の概要: Interactively Learning to Summarise Timelines by Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2211.07596v1
- Date: Mon, 14 Nov 2022 18:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:19:36.306696
- Title: Interactively Learning to Summarise Timelines by Reinforcement Learning
- Title(参考訳): 強化学習によるタイムラインの要約学習
- Authors: Yuxuan Ye and Edwin Simpson
- Abstract要約: タイムライン要約(TLS)は、一連のイベントと対応する日付を簡潔に記述した時系列の要約リストを作成することを目的としている。
本稿では,強化学習を通じてユーザのフィードバックから対話的に学習できるTLSシステムを提案する。
- 参考スコア(独自算出の注目度): 4.010371060637209
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Timeline summarisation (TLS) aims to create a time-ordered summary list
concisely describing a series of events with corresponding dates. This differs
from general summarisation tasks because it requires the method to capture
temporal information besides the main idea of the input documents. This paper
proposes a TLS system which can interactively learn from the user's feedback
via reinforcement learning and generate timelines satisfying the user's
interests. We define a compound reward function that can update automatically
according to the received feedback through interaction with the user. The
system utilises the reward function to fine-tune an abstractive summarisation
model via reinforcement learning to guarantee topical coherence, factual
consistency and linguistic fluency of the generated summaries. The proposed
system avoids the need of preference feedback from individual users. The
experiments show that our system outperforms the baseline on the benchmark TLS
dataset and can generate accurate and timeline precises that better satisfy
real users.
- Abstract(参考訳): 時系列要約 (tls) は、日付の一連のイベントを簡潔に記述した時間順要約リストを作成することを目的としている。
これは一般的な要約タスクと異なり、入力文書の主要なアイデア以外に時間情報を取得する方法が必要となる。
本稿では,ユーザからのフィードバックから,強化学習を通じて対話的に学習し,ユーザの興味を満たすタイムラインを生成するTLSシステムを提案する。
ユーザとのインタラクションを通じて受信したフィードバックに応じて自動的に更新できる複合報酬関数を定義する。
本システムは,要約の局所的整合性,事実整合性,言語流布性を保証するために,強化学習を通じて抽象的要約モデルを微調整する報奨関数を利用する。
提案システムでは,個々のユーザの好みフィードバックは不要である。
実験の結果,本システムは,ベンチマークtlsデータセットのベースラインを上回っており,実ユーザをより満足する精度とタイムラインを正確に生成できることがわかった。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Source Identification in Abstractive Summarization [0.8883733362171033]
生成された要約文に必須情報を含む入力文を$textitsource文として定義し、ソース文を解析して抽象的な要約がどのように作られるかを研究する。
我々は,複数の手法を比較し,タスクの強いベースラインを確立するために,自動ソース文検出を定式化する。
実験結果から, パープレキシティに基づく手法は, 比較的抽象的条件下では良好に動作し, 類似性に基づく手法は比較的抽出的条件下では頑健であることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:09:09Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Towards Realistic Low-resource Relation Extraction: A Benchmark with
Empirical Baseline Study [51.33182775762785]
本稿では,低リソース環境下での関係抽出システムを構築するための実証的研究について述べる。
低リソース環境での性能を評価するための3つのスキームについて検討する。 (i) ラベル付きラベル付きデータを用いた異なるタイプのプロンプトベース手法、 (ii) 長期分布問題に対処する多様なバランシング手法、 (iii) ラベル付きインドメインデータを生成するためのデータ拡張技術と自己学習。
論文 参考訳(メタデータ) (2022-10-19T15:46:37Z) - Improving Multi-Document Summarization through Referenced Flexible
Extraction with Credit-Awareness [21.037841262371355]
MDS(Multi-Document Summarization)における注目すべき課題は、入力の非常に長い長さである。
本稿では,この問題を克服するための抽出・抽出・吸収変換器フレームワークを提案する。
擬似抽出オラクルにない文の不等式の重要性をモデルに認識させる損失重み付け機構を提案する。
論文 参考訳(メタデータ) (2022-05-04T04:40:39Z) - OTExtSum: Extractive Text Summarisation with Optimal Transport [45.78604902572955]
テキスト要約を最適輸送(OT)問題として初めて定式化した非学習型手法を提案する。
提案手法は,最先端の非学習的手法と最近の学習的手法をROUGEメートル法で比較した。
論文 参考訳(メタデータ) (2022-04-21T13:25:34Z) - A New Sentence Extraction Strategy for Unsupervised Extractive
Summarization Methods [26.326800624948344]
本稿では,情報理論の観点から,抽出テキスト要約手法の課題をモデル化する。
特徴分布の改善と要約文の相互情報の低減を目的として,新たな文抽出手法を提案する。
論文 参考訳(メタデータ) (2021-12-06T18:00:02Z) - The Summary Loop: Learning to Write Abstractive Summaries Without
Examples [21.85348918324668]
本研究は,与えられた長さ制約に対するカバレッジとフラエンシの組み合わせを最大化することに基づく,教師なし抽象的要約に対する新しいアプローチを提案する。
主要な用語は元のドキュメントから隠蔽され、現在の生成された要約を使ってカバレッジモデルで満たされなければならない。
一般的なニュース要約データセットでテストすると、従来の教師なし手法よりも2R-1ポイント以上性能が向上する。
論文 参考訳(メタデータ) (2021-05-11T23:19:46Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Pre-training for Abstractive Document Summarization by Reinstating
Source Text [105.77348528847337]
本稿では,Seq2Seqに基づく非ラベルテキストによる抽象要約モデルの事前学習を可能にする3つの事前学習目標を提案する。
2つのベンチマーク要約データセットの実験では、3つの目的がすべてベースラインでパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2020-04-04T05:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。