論文の概要: Concise Answers to Complex Questions: Summarization of Long-form Answers
- arxiv url: http://arxiv.org/abs/2305.19271v1
- Date: Tue, 30 May 2023 17:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 14:28:21.551674
- Title: Concise Answers to Complex Questions: Summarization of Long-form Answers
- Title(参考訳): 複雑質問に対する簡潔回答:長文回答の要約
- Authors: Abhilash Potluri, Fangyuan Xu, Eunsol Choi
- Abstract要約: 我々は,最先端モデルから生成された要約された回答と,新たに提案した抽出・デコンテクライズ手法について,ユーザスタディを行った。
複雑で暗黙的な解答は圧縮が困難であるのに対し、少なくとも1つのシステムによって、大量の長文解答を適切に要約できることがわかった。
要約作業において,非コンテクスト化によって抽出された要約の質が向上し,その可能性を実証する。
- 参考スコア(独自算出の注目度): 27.190319030219285
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Long-form question answering systems provide rich information by presenting
paragraph-level answers, often containing optional background or auxiliary
information. While such comprehensive answers are helpful, not all information
is required to answer the question (e.g. users with domain knowledge do not
need an explanation of background). Can we provide a concise version of the
answer by summarizing it, while still addressing the question? We conduct a
user study on summarized answers generated from state-of-the-art models and our
newly proposed extract-and-decontextualize approach. We find a large proportion
of long-form answers (over 90%) in the ELI5 domain can be adequately summarized
by at least one system, while complex and implicit answers are challenging to
compress. We observe that decontextualization improves the quality of the
extractive summary, exemplifying its potential in the summarization task. To
promote future work, we provide an extractive summarization dataset covering 1K
long-form answers and our user study annotations. Together, we present the
first study on summarizing long-form answers, taking a step forward for QA
agents that can provide answers at multiple granularities.
- Abstract(参考訳): 長文質問応答システムは段落レベルの回答を提示し、しばしばオプションの背景情報や補助情報を含むリッチな情報を提供する。
このような包括的な回答は役に立つが、質問に答えるためにすべての情報が必要なわけではない(例えば、ドメイン知識を持つユーザーは背景の説明を必要としない)。
質問に対処しながら,要約することで,簡潔な回答版を提供できますか?
我々は,最先端モデルから生成した要約回答と,新たに提案する抽出・脱コンテキスト化アプローチについてユーザ調査を行う。
ELI5領域の長い解答(90%以上)は少なくとも1つのシステムで適切に要約できるが、複雑で暗黙的な解答は圧縮が難しい。
脱文脈化は抽出要約の品質を向上し,要約タスクにおけるその可能性を示す。
今後の作業を促進するために,1Kの長文回答を網羅した抽出要約データセットとユーザスタディアノテーションを提供する。
本研究は,複数粒度で回答を得られるQAエージェントの一歩を踏み出した,長文回答の要約に関する最初の研究である。
関連論文リスト
- Aspect-oriented Consumer Health Answer Summarization [2.298110639419913]
コミュニティ質問回答(Community Question-Answering、CQA)フォーラムは、人々が情報を求める方法、特に医療ニーズに関連するものに革命をもたらした。
単一のクエリに対する応答にはいくつかの回答があるため、特定の健康上の懸念に関連する重要な情報を把握することが難しくなる。
本研究は、この制限に対処するために、側面に基づく健康回答の要約に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-10T07:52:43Z) - Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach [28.849548176802262]
長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-15T21:22:27Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - How Do We Answer Complex Questions: Discourse Structure of Long-form
Answers [51.973363804064704]
3つのデータセットから収集した長文回答の機能構造について検討した。
私たちの主な目標は、人間が複雑な答えを作るためにどのように情報を整理するかを理解することです。
我々の研究は、長期QAシステムの談話レベルのモデリングと評価に関する将来の研究に刺激を与えることができる。
論文 参考訳(メタデータ) (2022-03-21T15:14:10Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Question-aware Transformer Models for Consumer Health Question
Summarization [20.342580435464072]
我々は,医療機関の認識を通じて質問の意味的解釈を活用する抽象的質問要約モデルを開発した。
MeQSumベンチマークコーパスで評価すると、我々のフレームワークは最先端の手法を10.2ROUGE-Lで上回りました。
論文 参考訳(メタデータ) (2021-06-01T04:21:31Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Multi-Perspective Abstractive Answer Summarization [76.10437565615138]
コミュニティ質問応答フォーラムには、幅広い質問に対する回答の豊富なリソースが含まれている。
マルチパースペクティブな回答要約の目標は、答えのすべての観点を含む要約を作成することである。
本研究は,多視点抽象要約を自動生成する新しいデータセット作成手法を提案する。
論文 参考訳(メタデータ) (2021-04-17T13:15:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。