論文の概要: Answering Subjective Induction Questions on Products by Summarizing
Multi-sources Multi-viewpoints Knowledge
- arxiv url: http://arxiv.org/abs/2309.05938v2
- Date: Fri, 6 Oct 2023 12:35:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 04:01:51.088862
- Title: Answering Subjective Induction Questions on Products by Summarizing
Multi-sources Multi-viewpoints Knowledge
- Title(参考訳): マルチソース多視点知識の要約による製品に対する主観的誘導質問への回答
- Authors: Yufeng Zhang (1 and 2), Meng-xiang Wang (3), and Jianxing Yu (1, 2 and
4) ((1) School of Artificial Intelligence, Sun Yat-sen University, Zhuhai
519082 (2) Guangdong Key Laboratory of Big Data Analysis and Processing,
510006, China (3) China National Institute of Standardization, 100088, China
(4) Pazhou Lab, Guangzhou, 510330, China)
- Abstract要約: 本稿では,製品に対する主観的誘導質問に対する回答の分野における新しい課題を提案する。
この種の質問に対する答えは普遍的ではないが、多くの観点から解釈できる。
満足した答えは、これらの主観的な意見を複数の情報源から要約し、客観的な知識を提供することができるべきである。
- 参考スコア(独自算出の注目度): 0.04791377777154766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a new task in the field of Answering Subjective Induction
Question on Products (SUBJPQA). The answer to this kind of question is
non-unique, but can be interpreted from many perspectives. For example, the
answer to 'whether the phone is heavy' has a variety of different viewpoints. A
satisfied answer should be able to summarize these subjective opinions from
multiple sources and provide objective knowledge, such as the weight of a
phone. That is quite different from the traditional QA task, in which the
answer to a factoid question is unique and can be found from a single data
source. To address this new task, we propose a three-steps method. We first
retrieve all answer-related clues from multiple knowledge sources on facts and
opinions. The implicit commonsense facts are also collected to supplement the
necessary but missing contexts. We then capture their relevance with the
questions by interactive attention. Next, we design a reinforcement-based
summarizer to aggregate all these knowledgeable clues. Based on a
template-controlled decoder, we can output a comprehensive and
multi-perspective answer. Due to the lack of a relevant evaluated benchmark set
for the new task, we construct a large-scale dataset, named SupQA, consisting
of 48,352 samples across 15 product domains. Evaluation results show the
effectiveness of our approach.
- Abstract(参考訳): 本稿では,製品に対する主観的帰納的質問(subjpqa)に回答する新しい課題を提案する。
この種の質問に対する答えは非統一的だが、多くの観点から解釈できる。
例えば、「電話が重いかどうか」に対する答えには、様々な視点がある。
満足した回答は、これらの主観的な意見を複数の情報源から要約し、電話の重みなど客観的な知識を提供することができるべきである。
これは、ファクトイドの質問に対する回答がユニークで、単一のデータソースから見つけることができる従来のQAタスクとはかなり異なる。
この課題に対処するために,3段階の手法を提案する。
まず、事実や意見に関する複数の知識ソースから、回答に関連するすべての手がかりを抽出する。
暗黙のコモンセンス事実も、必要だが欠落した文脈を補うために収集される。
そして、対話的な注意による質問との関係を捉えます。
次に,これらの知識を集約する強化型要約器を設計する。
テンプレート制御デコーダに基づいて,包括的かつマルチパースペクティブな回答を出力できる。
新しいタスクに関連性のある評価ベンチマークセットがないため、15のプロダクトドメインにわたる48,352のサンプルからなる大規模データセットであるSupQAを構築した。
評価結果は,我々のアプローチの有効性を示している。
関連論文リスト
- Aspect-oriented Consumer Health Answer Summarization [2.298110639419913]
コミュニティ質問回答(Community Question-Answering、CQA)フォーラムは、人々が情報を求める方法、特に医療ニーズに関連するものに革命をもたらした。
単一のクエリに対する応答にはいくつかの回答があるため、特定の健康上の懸念に関連する重要な情報を把握することが難しくなる。
本研究は、この制限に対処するために、側面に基づく健康回答の要約に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-10T07:52:43Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Concise Answers to Complex Questions: Summarization of Long-form Answers [27.190319030219285]
我々は,最先端モデルから生成された要約された回答と,新たに提案した抽出・デコンテクライズ手法について,ユーザスタディを行った。
複雑で暗黙的な解答は圧縮が困難であるのに対し、少なくとも1つのシステムによって、大量の長文解答を適切に要約できることがわかった。
要約作業において,非コンテクスト化によって抽出された要約の質が向上し,その可能性を実証する。
論文 参考訳(メタデータ) (2023-05-30T17:59:33Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Multi-Perspective Abstractive Answer Summarization [76.10437565615138]
コミュニティ質問応答フォーラムには、幅広い質問に対する回答の豊富なリソースが含まれている。
マルチパースペクティブな回答要約の目標は、答えのすべての観点を含む要約を作成することである。
本研究は,多視点抽象要約を自動生成する新しいデータセット作成手法を提案する。
論文 参考訳(メタデータ) (2021-04-17T13:15:29Z) - Meaningful Answer Generation of E-Commerce Question-Answering [77.89755281215079]
eコマースポータルでは、製品関連の質問に対する回答を生成することが重要な課題となっている。
本稿では,MPAG(Meaningful Product Answer Generator)と呼ばれる新しい生成ニューラルモデルを提案する。
MPAGは、製品レビュー、製品属性、プロトタイプの回答を考慮に入れて、安全な回答問題を緩和します。
論文 参考訳(メタデータ) (2020-11-14T14:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。