論文の概要: Product Question Answering in E-Commerce: A Survey
- arxiv url: http://arxiv.org/abs/2302.08092v1
- Date: Thu, 16 Feb 2023 05:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 14:52:59.464566
- Title: Product Question Answering in E-Commerce: A Survey
- Title(参考訳): 電子商取引における製品質問の回答
- Authors: Yang Deng, Wenxuan Zhang, Qian Yu, Wai Lam
- Abstract要約: 製品質問応答(PQA)は、Eコマースプラットフォームにおける顧客の質問に対する即時応答を自動で提供することを目的としている。
PQAは、ユーザ生成コンテンツの主観性と信頼性など、ユニークな課題を示す。
本稿では,PQAに関する既存の研究成果を体系的にレビューする。
- 参考スコア(独自算出の注目度): 43.12949215659755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Product question answering (PQA), aiming to automatically provide instant
responses to customer's questions in E-Commerce platforms, has drawn increasing
attention in recent years. Compared with typical QA problems, PQA exhibits
unique challenges such as the subjectivity and reliability of user-generated
contents in E-commerce platforms. Therefore, various problem settings and novel
methods have been proposed to capture these special characteristics. In this
paper, we aim to systematically review existing research efforts on PQA.
Specifically, we categorize PQA studies into four problem settings in terms of
the form of provided answers. We analyze the pros and cons, as well as present
existing datasets and evaluation protocols for each setting. We further
summarize the most significant challenges that characterize PQA from general QA
applications and discuss their corresponding solutions. Finally, we conclude
this paper by providing the prospect on several future directions.
- Abstract(参考訳): 商品質問応答(PQA)は、Eコマースプラットフォームにおける顧客の質問に対する即時応答を自動で提供することを目的としており、近年注目を集めている。
典型的なQA問題と比較すると、PQAはEコマースプラットフォームにおけるユーザ生成コンテンツの主観性と信頼性といったユニークな課題を示す。
そのため,これらの特徴を捉えるために,様々な問題設定や新しい手法が提案されている。
本稿では,PQAに関する既存の研究成果を体系的にレビューすることを目的とする。
具体的には,pqa研究を,回答形式の観点から4つの問題に分類する。
提案手法は,各設定に対する既存のデータセットと評価プロトコルだけでなく,その長所と短所も分析する。
さらに、一般的なQAアプリケーションからPQAを特徴づける最も重要な課題を要約し、対応するソリューションについて議論する。
最後に,本稿の結論として,今後の展望について述べる。
関連論文リスト
- KaPQA: Knowledge-Augmented Product Question-Answering [59.096607961704656]
我々はAdobe AcrobatとPhotoshop製品に焦点を当てた2つのQAデータセットを紹介した。
また、製品QAタスクにおけるモデルの性能を高めるために、新しい知識駆動型RAG-QAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T22:14:56Z) - PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance [96.06505049126345]
我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
論文 参考訳(メタデータ) (2022-10-17T08:06:56Z) - RealTime QA: What's the Answer Right Now? [137.04039209995932]
本稿では,動的質問応答(QA)プラットフォームであるREALTIME QAを紹介する。
GPT-3 や T5 など,大規模事前学習型言語モデルに基づく強力なベースラインモデルを構築した。
GPT-3は、検索された文書が答えを見つけるのに十分な情報を提供していない場合、時代遅れの回答を返す傾向がある。
論文 参考訳(メタデータ) (2022-07-27T07:26:01Z) - ProQA: Structural Prompt-based Pre-training for Unified Question
Answering [84.59636806421204]
ProQAは統一されたQAパラダイムであり、単一のモデルによって様々なタスクを解決する。
全てのQAタスクの知識一般化を同時にモデル化し、特定のQAタスクの知識カスタマイズを維持します。
ProQAは、フルデータの微調整、数ショットの学習、ゼロショットテストシナリオの両方のパフォーマンスを一貫して向上させる。
論文 参考訳(メタデータ) (2022-05-09T04:59:26Z) - The University of Texas at Dallas HLTRI's Participation in EPIC-QA:
Searching for Entailed Questions Revealing Novel Answer Nuggets [1.0957528713294875]
本稿では,EPIC-QAの両課題への参加について述べる:(1)エキスパートQA,(2)消費者QA。
提案手法では,BM25,BERT,T5を組み合わせた多相ニューラル情報検索システムを用いて,回答候補文から自動生成される質問と質問の関連性を検討する。
SER4EQUNOVA (NOVel nuggets of Answers) を提示するSEaRching for Entailed QUestions (SEaRching for Entailed QUestions) と呼ばれるシステムにより,EPIC-QAタスクの両タスクにおいて有望な結果が得られた。
論文 参考訳(メタデータ) (2021-12-28T00:14:46Z) - Conversational Question Answering: A Survey [18.447856993867788]
本調査は,会話質問回答(CQA)の最先端研究動向を包括的に概観する試みである。
この結果から,会話型AIの分野をさまざまな観点から活性化する一ターンから多ターンQAへの傾向が示唆された。
論文 参考訳(メタデータ) (2021-06-02T01:06:34Z) - NoiseQA: Challenge Set Evaluation for User-Centric Question Answering [68.67783808426292]
応答エンジンに先立つパイプライン内のコンポーネントが,多種多様なエラーの原因を発生させることができることを示す。
我々は、QAシステムが効果的にデプロイされる前に、進歩の余地がかなりあると結論付けている。
論文 参考訳(メタデータ) (2021-02-16T18:35:29Z) - Biomedical Question Answering: A Comprehensive Review [19.38459023509541]
Question Answering (QA) は自然言語処理(NLP)のベンチマークであり、関連する文書、画像、知識ベース、質問-回答ペアを用いてモデルが与えられた質問に対する回答を予測する。
バイオメディシンのような特定のドメインでは、QAシステムは実際の環境では使われない。
バイオメディカルQA(BQA)は、新しいQAタスクとして、革新的なアプリケーションが複雑なバイオメディカル知識を効果的に知覚し、アクセスし、理解することを可能にする。
論文 参考訳(メタデータ) (2021-02-10T06:16:35Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。