論文の概要: Less is More: Rejecting Unreliable Reviews for Product Question
Answering
- arxiv url: http://arxiv.org/abs/2007.04526v1
- Date: Thu, 9 Jul 2020 03:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:48:31.138525
- Title: Less is More: Rejecting Unreliable Reviews for Product Question
Answering
- Title(参考訳): 製品質問に対する信頼性の低いレビューを拒否する
- Authors: Shiwei Zhang, Xiuzhen Zhang, Jey Han Lau, Jeffrey Chan, and Cecile
Paris
- Abstract要約: 近年の研究では、製品レビューは、リアルタイムで自動的な製品質問応答のための良い情報源であることが示されている。
本稿では、レビューを用いたPQAの回答可能性と回答信頼性の問題に焦点を当てる。
本稿では,PQAシステムの信頼性を向上させるための適合予測に基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.821416803824295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Promptly and accurately answering questions on products is important for
e-commerce applications. Manually answering product questions (e.g. on
community question answering platforms) results in slow response and does not
scale. Recent studies show that product reviews are a good source for
real-time, automatic product question answering (PQA). In the literature, PQA
is formulated as a retrieval problem with the goal to search for the most
relevant reviews to answer a given product question. In this paper, we focus on
the issue of answerability and answer reliability for PQA using reviews. Our
investigation is based on the intuition that many questions may not be
answerable with a finite set of reviews. When a question is not answerable, a
system should return nil answers rather than providing a list of irrelevant
reviews, which can have significant negative impact on user experience.
Moreover, for answerable questions, only the most relevant reviews that answer
the question should be included in the result. We propose a conformal
prediction based framework to improve the reliability of PQA systems, where we
reject unreliable answers so that the returned results are more concise and
accurate at answering the product question, including returning nil answers for
unanswerable questions. Experiments on a widely used Amazon dataset show
encouraging results of our proposed framework. More broadly, our results
demonstrate a novel and effective application of conformal methods to a
retrieval task.
- Abstract(参考訳): 製品に関する質問を迅速かつ正確に答えることは、eコマースアプリケーションにとって重要である。
手動で製品質問に答える(例えば、コミュニティの質問に答えるプラットフォーム)と、反応が遅くスケールしない。
最近の研究では、製品レビューがリアルタイムの自動製品質問応答(pqa)に適した情報源であることが示されている。
文献では、PQAは検索問題として定式化され、最も関連性の高いレビューを検索して、与えられた製品質問に答えることを目的としている。
本稿では、レビューを用いたPQAの回答可能性と回答信頼性の問題に焦点を当てる。
我々の調査は、多くの質問が限定的なレビューで答えられないという直感に基づいている。
質問が回答できない場合、システムは無関係なレビューのリストを提供するのではなく、nilの回答を返すべきである。
さらに、回答可能な質問に対しては、質問に回答する最も関連するレビューのみを結果に含めるべきである。
本稿では,PQAシステムの信頼性を向上させるための適合予測に基づくフレームワークを提案する。このフレームワークでは,不確実な質問に対する nil 回答の返却を含む,返却結果がより簡潔で正確であるように,信頼できない回答を拒否する。
広く使われているAmazonデータセットの実験は、提案したフレームワークの結果を奨励している。
より広い意味では,コンフォメーション法を検索タスクに新規かつ効果的に適用することを示す。
関連論文リスト
- I Could've Asked That: Reformulating Unanswerable Questions [89.93173151422636]
我々は、解決不可能な質問を改定するためのオープンソースおよびプロプライエタリなモデルを評価する。
GPT-4とLlama2-7Bは、それぞれ26%と12%しか質問を修正できなかった。
ベンチマークとコードを公開して実験を再現します。
論文 参考訳(メタデータ) (2024-07-24T17:59:07Z) - Controllable Decontextualization of Yes/No Question and Answers into
Factual Statements [28.02936811004903]
本稿では,極性質問に対する回答の制御可能な書き直しの問題に対処する。
本稿では,ソフト制約を利用して制御可能な書き換えを実現するトランスフォーマーシーケンス to シーケンスモデルを提案する。
論文 参考訳(メタデータ) (2024-01-18T07:52:12Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Answering Unanswered Questions through Semantic Reformulations in Spoken
QA [20.216161323866867]
Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
論文 参考訳(メタデータ) (2023-05-27T07:19:27Z) - RealTime QA: What's the Answer Right Now? [137.04039209995932]
本稿では,動的質問応答(QA)プラットフォームであるREALTIME QAを紹介する。
GPT-3 や T5 など,大規模事前学習型言語モデルに基づく強力なベースラインモデルを構築した。
GPT-3は、検索された文書が答えを見つけるのに十分な情報を提供していない場合、時代遅れの回答を返す傾向がある。
論文 参考訳(メタデータ) (2022-07-27T07:26:01Z) - Improving the Question Answering Quality using Answer Candidate
Filtering based on Natural-Language Features [117.44028458220427]
本稿では,質問応答(QA)の品質をいかに改善できるかという課題に対処する。
私たちの主な貢献は、QAシステムが提供する間違った回答を識別できるアプローチです。
特に,提案手法は誤答の大部分を除去しつつ,その可能性を示した。
論文 参考訳(メタデータ) (2021-12-10T11:09:44Z) - Answering Product-Questions by Utilizing Questions from Other
Contextually Similar Products [7.220014320991269]
本稿では,主観的および意見に基づく質問に対する回答を予測するための,新しい補完的アプローチを提案する。
同じ質問に対する回答に基づいて、製品間のコンテキスト的類似度を測定します。
経験の混合フレームワークは、文脈的に類似した製品から回答を集約することで、答えを予測するために使用される。
論文 参考訳(メタデータ) (2021-05-19T07:05:00Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Meaningful Answer Generation of E-Commerce Question-Answering [77.89755281215079]
eコマースポータルでは、製品関連の質問に対する回答を生成することが重要な課題となっている。
本稿では,MPAG(Meaningful Product Answer Generator)と呼ばれる新しい生成ニューラルモデルを提案する。
MPAGは、製品レビュー、製品属性、プロトタイプの回答を考慮に入れて、安全な回答問題を緩和します。
論文 参考訳(メタデータ) (2020-11-14T14:05:30Z) - Opinion-aware Answer Generation for Review-driven Question Answering in
E-Commerce [39.08269647808958]
製品レビューにおける個人的意見に関する豊富な情報は、現在世代ベースのレビュー駆動QA研究では利用されていない。
本稿では,一貫したモデルで回答生成と意見マイニングタスクを共同で学習することで,意見認識型回答生成に取り組む。
実世界のEコマースQAデータセットにおいて,本手法が優れた性能を発揮することを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-08-27T07:54:45Z) - Review-guided Helpful Answer Identification in E-commerce [38.276241153439955]
製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
論文 参考訳(メタデータ) (2020-03-13T11:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。