論文の概要: Answering Product-Questions by Utilizing Questions from Other
Contextually Similar Products
- arxiv url: http://arxiv.org/abs/2105.08956v1
- Date: Wed, 19 May 2021 07:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 19:22:55.566383
- Title: Answering Product-Questions by Utilizing Questions from Other
Contextually Similar Products
- Title(参考訳): 他の文脈に類似した製品からの質問を活用して商品質問に答える
- Authors: Ohad Rozen, David Carmel, Avihai Mejer, Vitaly Mirkis, and Yftah Ziser
- Abstract要約: 本稿では,主観的および意見に基づく質問に対する回答を予測するための,新しい補完的アプローチを提案する。
同じ質問に対する回答に基づいて、製品間のコンテキスト的類似度を測定します。
経験の混合フレームワークは、文脈的に類似した製品から回答を集約することで、答えを予測するために使用される。
- 参考スコア(独自算出の注目度): 7.220014320991269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the answer to a product-related question is an emerging field of
research that recently attracted a lot of attention. Answering subjective and
opinion-based questions is most challenging due to the dependency on
customer-generated content. Previous works mostly focused on review-aware
answer prediction; however, these approaches fail for new or unpopular
products, having no (or only a few) reviews at hand. In this work, we propose a
novel and complementary approach for predicting the answer for such questions,
based on the answers for similar questions asked on similar products. We
measure the contextual similarity between products based on the answers they
provide for the same question. A mixture-of-expert framework is used to predict
the answer by aggregating the answers from contextually similar products.
Empirical results demonstrate that our model outperforms strong baselines on
some segments of questions, namely those that have roughly ten or more similar
resolved questions in the corpus. We additionally publish two large-scale
datasets used in this work, one is of similar product question pairs, and the
second is of product question-answer pairs.
- Abstract(参考訳): プロダクト関連の質問に対する回答を予測することは、最近多くの注目を集めた研究分野の新興だ。
主観的および意見に基づく質問への回答は、顧客生成コンテンツに依存するため、最も難しい。
これまでの研究は主に、レビュー対応の回答予測に重点を置いていたが、これらのアプローチは、新しい製品や不人気な製品では失敗し、レビューが手元にない(あるいはほんの数回)。
本研究では,同様の質問に対する回答に基づいて,質問に対する回答を予測するための新しい,補完的な手法を提案する。
同じ質問に対する回答に基づいて、製品間のコンテキスト的類似度を測定します。
mix-of-expertフレームワークは、コンテキスト的に類似した製品から回答を集約することで、回答を予測するために使用される。
実験結果から,我々のモデルは,コーパスに約10以上の類似した解答を持つ質問に対して,強いベースラインを達成できた。
この作業で使用される2つの大規模なデータセットも公開しています。1つは製品質問ペアで、もう1つは製品質問-回答ペアです。
関連論文リスト
- Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Meaningful Answer Generation of E-Commerce Question-Answering [77.89755281215079]
eコマースポータルでは、製品関連の質問に対する回答を生成することが重要な課題となっている。
本稿では,MPAG(Meaningful Product Answer Generator)と呼ばれる新しい生成ニューラルモデルを提案する。
MPAGは、製品レビュー、製品属性、プロトタイプの回答を考慮に入れて、安全な回答問題を緩和します。
論文 参考訳(メタデータ) (2020-11-14T14:05:30Z) - Opinion-aware Answer Generation for Review-driven Question Answering in
E-Commerce [39.08269647808958]
製品レビューにおける個人的意見に関する豊富な情報は、現在世代ベースのレビュー駆動QA研究では利用されていない。
本稿では,一貫したモデルで回答生成と意見マイニングタスクを共同で学習することで,意見認識型回答生成に取り組む。
実世界のEコマースQAデータセットにおいて,本手法が優れた性能を発揮することを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-08-27T07:54:45Z) - Less is More: Rejecting Unreliable Reviews for Product Question
Answering [20.821416803824295]
近年の研究では、製品レビューは、リアルタイムで自動的な製品質問応答のための良い情報源であることが示されている。
本稿では、レビューを用いたPQAの回答可能性と回答信頼性の問題に焦点を当てる。
本稿では,PQAシステムの信頼性を向上させるための適合予測に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-09T03:08:55Z) - Match$^2$: A Matching over Matching Model for Similar Question
Identification [74.7142127303489]
コミュニティ質問回答(Community Question Answering, CQA)は,質問や回答の提出を自由に行う,知識獲得のための主要な手段となっている。
類似した質問識別は、CQAの中核的なタスクとなり、新しい質問が尋ねられるたびに、アーカイブされたリポジトリから同様の質問を見つけることを目的としている。
自然言語の固有のバリエーション、すなわち、同じ質問をしたり、同じ表現を共有する異なる質問をする方法があるため、この2つの質問の類似性を適切に測定することは、長い間困難であった。
従来の手法では片側の使用が一般的であり、答えを拡張された表現として活用する。
論文 参考訳(メタデータ) (2020-06-21T05:59:34Z) - Review-guided Helpful Answer Identification in E-commerce [38.276241153439955]
製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
論文 参考訳(メタデータ) (2020-03-13T11:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。