論文の概要: Meaningful Answer Generation of E-Commerce Question-Answering
- arxiv url: http://arxiv.org/abs/2011.07307v1
- Date: Sat, 14 Nov 2020 14:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 13:21:32.330349
- Title: Meaningful Answer Generation of E-Commerce Question-Answering
- Title(参考訳): 電子商取引質問書作成の意義
- Authors: Shen Gao, Xiuying Chen, Zhaochun Ren, Dongyan Zhao and Rui Yan
- Abstract要約: eコマースポータルでは、製品関連の質問に対する回答を生成することが重要な課題となっている。
本稿では,MPAG(Meaningful Product Answer Generator)と呼ばれる新しい生成ニューラルモデルを提案する。
MPAGは、製品レビュー、製品属性、プロトタイプの回答を考慮に入れて、安全な回答問題を緩和します。
- 参考スコア(独自算出の注目度): 77.89755281215079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In e-commerce portals, generating answers for product-related questions has
become a crucial task. In this paper, we focus on the task of product-aware
answer generation, which learns to generate an accurate and complete answer
from large-scale unlabeled e-commerce reviews and product attributes. However,
safe answer problems pose significant challenges to text generation tasks, and
e-commerce question-answering task is no exception. To generate more meaningful
answers, in this paper, we propose a novel generative neural model, called the
Meaningful Product Answer Generator (MPAG), which alleviates the safe answer
problem by taking product reviews, product attributes, and a prototype answer
into consideration. Product reviews and product attributes are used to provide
meaningful content, while the prototype answer can yield a more diverse answer
pattern. To this end, we propose a novel answer generator with a review
reasoning module and a prototype answer reader. Our key idea is to obtain the
correct question-aware information from a large scale collection of reviews and
learn how to write a coherent and meaningful answer from an existing prototype
answer. To be more specific, we propose a read-and-write memory consisting of
selective writing units to conduct reasoning among these reviews. We then
employ a prototype reader consisting of comprehensive matching to extract the
answer skeleton from the prototype answer. Finally, we propose an answer editor
to generate the final answer by taking the question and the above parts as
input. Conducted on a real-world dataset collected from an e-commerce platform,
extensive experimental results show that our model achieves state-of-the-art
performance in terms of both automatic metrics and human evaluations. Human
evaluation also demonstrates that our model can consistently generate specific
and proper answers.
- Abstract(参考訳): eコマースポータルでは、製品関連の質問に対する回答を生成することが重要な課題となっている。
本稿では,大規模な未ラベルのeコマースレビューや製品属性から正確かつ完全な回答を生成することを学ぶ製品対応回答生成の課題に焦点を当てる。
しかし、安全な回答問題はテキスト生成タスクに重大な課題をもたらし、Eコマースの質問応答タスクは例外ではない。
より有意義な回答を生成するために,本論文では,製品レビュー,製品属性,プロトタイプ回答を考慮に入れて,安全な回答問題を緩和する,有意義な製品応答生成(mpag)と呼ばれる新しい生成ニューラルモデルを提案する。
製品レビューと製品属性は意味のあるコンテンツを提供するために使用され、プロトタイプの回答はより多様な回答パターンをもたらす。
そこで本研究では,レビュー推論モジュールとプロトタイプ回答リーダを備えた新しい回答生成器を提案する。
私たちのキーとなるアイデアは、大規模なレビューから正しい質問認識情報を取得し、既存のプロトタイプ回答から一貫性のある有意義な回答を書く方法を学ぶことです。
より具体的には、これらのレビューの中で推論を行うための選択的書き込みユニットからなる読み書きメモリを提案する。
次に,プロトタイプ回答から解答骨格を抽出するために,包括的マッチングからなるプロトタイプ読取装置を用いる。
最後に,質問と上記の部品を入力として,最終回答を生成するための回答エディタを提案する。
eコマースプラットフォームから収集した実世界のデータセットに基づいて,本モデルが自動計測と人間評価の両面で最先端のパフォーマンスを達成していることを示す。
人間の評価は、我々のモデルが常に特定の、適切な回答を生成できることを示す。
関連論文リスト
- Answering Subjective Induction Questions on Products by Summarizing
Multi-sources Multi-viewpoints Knowledge [0.04791377777154766]
本稿では,製品に対する主観的誘導質問に対する回答の分野における新しい課題を提案する。
この種の質問に対する答えは普遍的ではないが、多くの観点から解釈できる。
満足した答えは、これらの主観的な意見を複数の情報源から要約し、客観的な知識を提供することができるべきである。
論文 参考訳(メタデータ) (2023-09-12T03:27:08Z) - How Do We Answer Complex Questions: Discourse Structure of Long-form
Answers [51.973363804064704]
3つのデータセットから収集した長文回答の機能構造について検討した。
私たちの主な目標は、人間が複雑な答えを作るためにどのように情報を整理するかを理解することです。
我々の研究は、長期QAシステムの談話レベルのモデリングと評価に関する将来の研究に刺激を与えることができる。
論文 参考訳(メタデータ) (2022-03-21T15:14:10Z) - Read before Generate! Faithful Long Form Question Answering with Machine
Reading [77.17898499652306]
LFQA(Long-form Question answering)は、ある質問に対する段落長の回答を生成することを目的としている。
生成と機械読取を協調的にモデル化する新しいエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-01T10:41:17Z) - Towards Personalized Answer Generation in E-Commerce via
Multi-Perspective Preference Modeling [62.049330405736406]
Eコマースプラットフォーム上での製品質問回答(PQA)は、インテリジェントオンラインショッピングアシスタントとして機能するため、注目を集めている。
なぜなら、多くの顧客は、自分でのみカスタマイズされた情報でパーソナライズされた回答を見たいと思っているからです。
PQAにおけるパーソナライズされた回答を生成するための,新しいマルチパースペクティブなユーザ嗜好モデルを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:51:49Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Answering Product-Questions by Utilizing Questions from Other
Contextually Similar Products [7.220014320991269]
本稿では,主観的および意見に基づく質問に対する回答を予測するための,新しい補完的アプローチを提案する。
同じ質問に対する回答に基づいて、製品間のコンテキスト的類似度を測定します。
経験の混合フレームワークは、文脈的に類似した製品から回答を集約することで、答えを予測するために使用される。
論文 参考訳(メタデータ) (2021-05-19T07:05:00Z) - Multi-Perspective Abstractive Answer Summarization [76.10437565615138]
コミュニティ質問応答フォーラムには、幅広い質問に対する回答の豊富なリソースが含まれている。
マルチパースペクティブな回答要約の目標は、答えのすべての観点を含む要約を作成することである。
本研究は,多視点抽象要約を自動生成する新しいデータセット作成手法を提案する。
論文 参考訳(メタデータ) (2021-04-17T13:15:29Z) - E-commerce Query-based Generation based on User Review [1.484852576248587]
本稿では,従来のユーザによるレビューに基づいて,ユーザの質問に対する回答を生成するための新しいセク2seqベースのテキスト生成モデルを提案する。
ユーザの質問や感情の極性が与えられた場合,関心事の側面を抽出し,過去のユーザレビューを要約した回答を生成する。
論文 参考訳(メタデータ) (2020-11-11T04:58:31Z) - Opinion-aware Answer Generation for Review-driven Question Answering in
E-Commerce [39.08269647808958]
製品レビューにおける個人的意見に関する豊富な情報は、現在世代ベースのレビュー駆動QA研究では利用されていない。
本稿では,一貫したモデルで回答生成と意見マイニングタスクを共同で学習することで,意見認識型回答生成に取り組む。
実世界のEコマースQAデータセットにおいて,本手法が優れた性能を発揮することを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-08-27T07:54:45Z) - ProtoQA: A Question Answering Dataset for Prototypical Common-Sense
Reasoning [35.6375880208001]
本稿では,人工知能システムの常識推論能力をトレーニングし,評価するための新しい質問応答データセットを提案する。
トレーニングセットは、長期にわたる国際ゲームショーFAMILY-FEUDでプレイされている既存の質問セットから収集される。
また,モデルがランク付けされた回答リストを出力しなければならない生成的評価タスクを提案する。
論文 参考訳(メタデータ) (2020-05-02T09:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。