論文の概要: Multi-Perspective Abstractive Answer Summarization
- arxiv url: http://arxiv.org/abs/2104.08536v1
- Date: Sat, 17 Apr 2021 13:15:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 11:13:13.096717
- Title: Multi-Perspective Abstractive Answer Summarization
- Title(参考訳): マルチパースペクティブ抽象的回答要約
- Authors: Alexander R. Fabbri, Xiaojian Wu, Srini Iyer, Mona Diab
- Abstract要約: コミュニティ質問応答フォーラムには、幅広い質問に対する回答の豊富なリソースが含まれている。
マルチパースペクティブな回答要約の目標は、答えのすべての観点を含む要約を作成することである。
本研究は,多視点抽象要約を自動生成する新しいデータセット作成手法を提案する。
- 参考スコア(独自算出の注目度): 76.10437565615138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Community Question Answering (CQA) forums such as Stack Overflow and Yahoo!
Answers contain a rich resource of answers to a wide range of questions. Each
question thread can receive a large number of answers with different
perspectives. The goal of multi-perspective answer summarization is to produce
a summary that includes all perspectives of the answer. A major obstacle for
multi-perspective, abstractive answer summarization is the absence of a dataset
to provide supervision for producing such summaries. This work introduces a
novel dataset creation method to automatically create multi-perspective,
bullet-point abstractive summaries from an existing CQA forum. Supervision
provided by this dataset trains models to inherently produce multi-perspective
summaries. Additionally, to train models to output more diverse, faithful
answer summaries while retaining multiple perspectives, we propose a
multi-reward optimization technique coupled with a sentence-relevance
prediction multi-task loss. Our methods demonstrate improved coverage of
perspectives and faithfulness as measured by automatic and human evaluations
compared to a strong baseline.
- Abstract(参考訳): Stack OverflowやYahoo!といったコミュニティ質問回答(CQA)フォーラム。
回答には、幅広い質問に対する回答の豊富なリソースが含まれている。
各質問スレッドは、異なる視点で多数の回答を受け取ることができる。
マルチパースペクティブな回答要約の目標は、答えのすべての観点を含む要約を作成することである。
マルチパースペクティブで抽象的な回答要約のための大きな障害は、このような要約を生成するための監督を提供するデータセットがないことである。
本研究は,既存のCQAフォーラムから多視点・多点抽象要約を自動生成する新しいデータセット作成手法を提案する。
このデータセットが提供するスーパービジョンは、本質的にマルチパースペクティブな要約を生成するモデルを訓練する。
さらに,複数の視点を維持しながら,より多様で忠実な回答サマリーを出力するモデルを訓練するために,文関連予測とマルチタスク損失を併用したマルチリワード最適化手法を提案する。
提案手法は, 強力なベースラインと比較して, 自動評価と人間評価により, 視点と忠実性が向上したことを示す。
関連論文リスト
- Aspect-oriented Consumer Health Answer Summarization [2.298110639419913]
コミュニティ質問回答(Community Question-Answering、CQA)フォーラムは、人々が情報を求める方法、特に医療ニーズに関連するものに革命をもたらした。
単一のクエリに対する応答にはいくつかの回答があるため、特定の健康上の懸念に関連する重要な情報を把握することが難しくなる。
本研究は、この制限に対処するために、側面に基づく健康回答の要約に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-10T07:52:43Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Answering Subjective Induction Questions on Products by Summarizing
Multi-sources Multi-viewpoints Knowledge [0.04791377777154766]
本稿では,製品に対する主観的誘導質問に対する回答の分野における新しい課題を提案する。
この種の質問に対する答えは普遍的ではないが、多くの観点から解釈できる。
満足した答えは、これらの主観的な意見を複数の情報源から要約し、客観的な知識を提供することができるべきである。
論文 参考訳(メタデータ) (2023-09-12T03:27:08Z) - How Many Answers Should I Give? An Empirical Study of Multi-Answer
Reading Comprehension [64.76737510530184]
我々は、一般的に見られるマルチアンサーMRCインスタンスを分類するために分類を設計する。
我々は、現在のマルチ・アンサー・MCCモデルのパラダイムが、異なるタイプのマルチ・アンサー・インスタンスをどのように扱うかを分析する。
論文 参考訳(メタデータ) (2023-06-01T08:22:21Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Abstractive Query Focused Summarization with Query-Free Resources [60.468323530248945]
本稿では,汎用的な要約リソースのみを利用して抽象的なqfsシステムを構築する問題を考える。
本稿では,要約とクエリのための新しい統一表現からなるMasked ROUGE回帰フレームワークであるMargeを提案する。
最小限の監視から学習したにもかかわらず,遠隔管理環境において最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T14:39:35Z) - Beyond VQA: Generating Multi-word Answer and Rationale to Visual
Questions [27.807568245576718]
ViQAR(Visual Question Answering and Reasoning)では、モデルが完全な回答と、生成した回答を正当化する根拠を生成する必要がある。
我々は,人間のチューリングテストと同様に質的,定量的な評価によって,モデルが強い答えと有理性を生成することを示す。
論文 参考訳(メタデータ) (2020-10-24T09:44:50Z) - Multi-hop Inference for Question-driven Summarization [39.08269647808958]
本稿では,新しい質問駆動抽象要約手法であるMulti-hop Selective Generator (MSG)を提案する。
MSGは、マルチホップ推論を質問駆動要約に取り入れ、生成した要約の正当化を提供する。
実験結果から,提案手法は2つの非ファクトイドQAデータセット上で常に最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2020-10-08T02:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。