論文の概要: Improve Query Focused Abstractive Summarization by Incorporating Answer
Relevance
- arxiv url: http://arxiv.org/abs/2105.12969v2
- Date: Mon, 31 May 2021 04:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 13:21:46.730857
- Title: Improve Query Focused Abstractive Summarization by Incorporating Answer
Relevance
- Title(参考訳): 解答関連性の導入による要約クエリの改善
- Authors: Dan Su, Tiezheng Yu, Pascale Fung
- Abstract要約: 本稿では,QFS-BARTモデルを提案する。QFS-BARTは,質問応答モデルによって与えられたソース文書の明示的な回答関連性を組み込んだモデルである。
我々のモデルは, 要約性能を大幅に向上させる, 事前学習された大規模モデルを利用することができる。
Debatepediaデータセットの実証結果は、提案したモデルが新しい最先端のパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 43.820971952979875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query focused summarization (QFS) models aim to generate summaries from
source documents that can answer the given query. Most previous work on QFS
only considers the query relevance criterion when producing the summary.
However, studying the effect of answer relevance in the summary generating
process is also important. In this paper, we propose QFS-BART, a model that
incorporates the explicit answer relevance of the source documents given the
query via a question answering model, to generate coherent and answer-related
summaries. Furthermore, our model can take advantage of large pre-trained
models which improve the summarization performance significantly. Empirical
results on the Debatepedia dataset show that the proposed model achieves the
new state-of-the-art performance.
- Abstract(参考訳): query focus summarization(qfs)モデルは、与えられたクエリに答えられるソースドキュメントから要約を生成することを目的としている。
QFSに関するこれまでのほとんどの研究は、要約を生成する際のクエリ関連基準のみを考慮していた。
しかし,要約生成過程における回答の関連性の検討も重要である。
本稿では,質問応答モデルによる質問文の回答関係を明示するモデルであるQFS-BARTを提案し,一貫性と回答関連要約を生成する。
さらに,本モデルでは,要約性能を大幅に向上する大規模事前学習モデルの活用も可能である。
Debatepediaデータセットの実証結果は、提案モデルが新しい最先端のパフォーマンスを達成することを示している。
関連論文リスト
- IDEAL: Leveraging Infinite and Dynamic Characterizations of Large Language Models for Query-focused Summarization [59.06663981902496]
クエリ中心の要約(QFS)は、特定の関心事に答え、より優れたユーザ制御とパーソナライゼーションを可能にする要約を作成することを目的としている。
本稿では,LLMを用いたQFSモデル,Longthy Document Summarization,およびクエリ-LLMアライメントの2つの重要な特徴について検討する。
これらのイノベーションは、QFS技術分野における幅広い応用とアクセシビリティの道を開いた。
論文 参考訳(メタデータ) (2024-07-15T07:14:56Z) - QontSum: On Contrasting Salient Content for Query-focused Summarization [22.738731393540633]
クエリ中心の要約(QFS)は、特定のクエリに対処する要約を生成する自然言語処理において難しいタスクである。
本稿では,GARにおけるQFSの役割について述べる。
コントラスト学習を利用したQFSの新しい手法であるQontSumを提案する。
論文 参考訳(メタデータ) (2023-07-14T19:25:35Z) - LMGQS: A Large-scale Dataset for Query-focused Summarization [77.6179359525065]
我々は4つの一般的な要約ベンチマークを新しいQFSベンチマークデータセットであるLMGQSに変換する。
我々は最先端の要約モデルを用いてベースラインを確立する。
複数の既存のQFSベンチマークにおいて、最先端のゼロショットと教師付きパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-22T14:53:45Z) - Query-Utterance Attention with Joint modeling for Query-Focused Meeting
Summarization [4.763356598070365]
本稿では,クエリ・Utterance Attentionに基づく共同モデリングトークンと発話を用いた問合せ対応フレームワークを提案する。
異なる粒度のクエリ関連性は、クエリに関連する要約を生成するのに寄与することを示す。
論文 参考訳(メタデータ) (2023-03-08T10:21:45Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - Abstractive Query Focused Summarization with Query-Free Resources [60.468323530248945]
本稿では,汎用的な要約リソースのみを利用して抽象的なqfsシステムを構築する問題を考える。
本稿では,要約とクエリのための新しい統一表現からなるMasked ROUGE回帰フレームワークであるMargeを提案する。
最小限の監視から学習したにもかかわらず,遠隔管理環境において最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T14:39:35Z) - Query Focused Multi-Document Summarization with Distant Supervision [88.39032981994535]
既存の作業は、クエリとテキストセグメント間の関連性を推定する検索スタイルの手法に大きく依存している。
本稿では,クエリに関連するセグメントを推定するための個別モジュールを導入した粗大なモデリングフレームワークを提案する。
我々のフレームワークは、標準QFSベンチマークにおいて、強力な比較システムよりも優れていることを実証する。
論文 参考訳(メタデータ) (2020-04-06T22:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。