論文の概要: Review-guided Helpful Answer Identification in E-commerce
- arxiv url: http://arxiv.org/abs/2003.06209v1
- Date: Fri, 13 Mar 2020 11:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:39:42.725176
- Title: Review-guided Helpful Answer Identification in E-commerce
- Title(参考訳): eコマースにおけるレビューガイドによる回答識別
- Authors: Wenxuan Zhang, Wai Lam, Yang Deng, Jing Ma
- Abstract要約: 製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
- 参考スコア(独自算出の注目度): 38.276241153439955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Product-specific community question answering platforms can greatly help
address the concerns of potential customers. However, the user-provided answers
on such platforms often vary a lot in their qualities. Helpfulness votes from
the community can indicate the overall quality of the answer, but they are
often missing. Accurately predicting the helpfulness of an answer to a given
question and thus identifying helpful answers is becoming a demanding need.
Since the helpfulness of an answer depends on multiple perspectives instead of
only topical relevance investigated in typical QA tasks, common answer
selection algorithms are insufficient for tackling this task. In this paper, we
propose the Review-guided Answer Helpfulness Prediction (RAHP) model that not
only considers the interactions between QA pairs but also investigates the
opinion coherence between the answer and crowds' opinions reflected in the
reviews, which is another important factor to identify helpful answers.
Moreover, we tackle the task of determining opinion coherence as a language
inference problem and explore the utilization of pre-training strategy to
transfer the textual inference knowledge obtained from a specifically designed
trained network. Extensive experiments conducted on real-world data across
seven product categories show that our proposed model achieves superior
performance on the prediction task.
- Abstract(参考訳): 製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
しかし、そのようなプラットフォーム上でユーザーが提供する回答は、しばしばその品質に大きく異なる。
コミュニティからの有益性投票は、回答の全体的な品質を示すことができるが、しばしば欠落する。
与えられた質問に対する回答の有用性を正確に予測し、有効な答えを特定することが要求されるニーズになりつつある。
回答の有効性は、典型的なQAタスクで調査された話題の関連性に限らず、複数の視点に依存するため、このタスクに対処するには共通の回答選択アルゴリズムが不十分である。
本稿では,qaペア間のインタラクションを考察するだけでなく,レビューに反映された回答と参加者の意見との意見の一貫性も検討し,有用な回答を特定する上でも重要な要素である,レビューガイド付き回答支援予測(rahp)モデルを提案する。
さらに,言語推論問題として意見コヒーレンスを決定する課題に取り組み,特別に設計されたネットワークから得られたテキスト推論知識の伝達における事前学習戦略の活用について検討する。
7つの製品カテゴリにまたがる実世界のデータを用いた大規模な実験により,提案モデルが予測課題において優れた性能を発揮することを示す。
関連論文リスト
- QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - Aspect-oriented Consumer Health Answer Summarization [2.298110639419913]
コミュニティ質問回答(Community Question-Answering、CQA)フォーラムは、人々が情報を求める方法、特に医療ニーズに関連するものに革命をもたらした。
単一のクエリに対する応答にはいくつかの回答があるため、特定の健康上の懸念に関連する重要な情報を把握することが難しくなる。
本研究は、この制限に対処するために、側面に基づく健康回答の要約に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-10T07:52:43Z) - Estimating the Usefulness of Clarifying Questions and Answers for
Conversational Search [17.0363715044341]
本稿では,質問を明確化するための回答処理手法を提案する。
具体的には,利用者が提示した質問と回答の提示による有用性を評価するための分類器を提案する。
その結果, 強い非混合開始基線よりも顕著な改善が認められた。
論文 参考訳(メタデータ) (2024-01-21T11:04:30Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - A Critical Evaluation of Evaluations for Long-form Question Answering [48.51361567469683]
LFQA(Long-form Question answering)は、幅広い質問に答えることができるが、その柔軟性は評価に大きな課題をもたらす。
本研究は,人的・自動的な評価の実践を網羅した,長文回答の評価を初めて対象とした研究である。
論文 参考訳(メタデータ) (2023-05-29T16:54:24Z) - Answering Unanswered Questions through Semantic Reformulations in Spoken
QA [20.216161323866867]
Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
論文 参考訳(メタデータ) (2023-05-27T07:19:27Z) - Double Retrieval and Ranking for Accurate Question Answering [120.69820139008138]
本研究では,トランスフォーマーを用いた解答選択モデルに導入された解答検証ステップが,問合せ解答における解答の精度を大幅に向上させることを示す。
AS2のためのよく知られた3つのデータセットの結果は、最先端の一貫性と大幅な改善を示している。
論文 参考訳(メタデータ) (2022-01-16T06:20:07Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Opinion-aware Answer Generation for Review-driven Question Answering in
E-Commerce [39.08269647808958]
製品レビューにおける個人的意見に関する豊富な情報は、現在世代ベースのレビュー駆動QA研究では利用されていない。
本稿では,一貫したモデルで回答生成と意見マイニングタスクを共同で学習することで,意見認識型回答生成に取り組む。
実世界のEコマースQAデータセットにおいて,本手法が優れた性能を発揮することを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-08-27T07:54:45Z) - An Empirical Study of Clarifying Question-Based Systems [15.767515065224016]
実験システムをデプロイしてオンライン実験を行い、プロダクトリポジトリに対して明確な質問をすることでユーザと対話する。
暗黙的なインタラクション行動データと,ユーザからの明示的なフィードバックの両方を収集する。 (a)ユーザは,多くの明確な質問(平均11~21件)に回答する意思がありますが,それ以上は多くありません。
論文 参考訳(メタデータ) (2020-08-01T15:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。