論文の概要: Answer Generation for Questions With Multiple Information Sources in
E-Commerce
- arxiv url: http://arxiv.org/abs/2111.14003v1
- Date: Sat, 27 Nov 2021 23:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 09:57:49.940797
- Title: Answer Generation for Questions With Multiple Information Sources in
E-Commerce
- Title(参考訳): 電子商取引における複数の情報ソースを用いた質問に対する回答生成
- Authors: Anand A. Rajasekar, Nikesh Garera
- Abstract要約: 本稿では,関連性やあいまいさの予測を別々に行うことで,上記ソースに存在する豊富な情報を利用する新しいパイプライン(MSQAP)を提案する。
これは、仕様、類似の質問、データレビューなど、さまざまなソースに存在する情報を組み合わせた自然言語の回答を自動的に生成する、eコマース領域における最初の作業である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic question answering is an important yet challenging task in
E-commerce given the millions of questions posted by users about the product
that they are interested in purchasing. Hence, there is a great demand for
automatic answer generation systems that provide quick responses using related
information about the product. There are three sources of knowledge available
for answering a user posted query, they are reviews, duplicate or similar
questions, and specifications. Effectively utilizing these information sources
will greatly aid us in answering complex questions. However, there are two main
challenges present in exploiting these sources: (i) The presence of irrelevant
information and (ii) the presence of ambiguity of sentiment present in reviews
and similar questions. Through this work we propose a novel pipeline (MSQAP)
that utilizes the rich information present in the aforementioned sources by
separately performing relevancy and ambiguity prediction before generating a
response.
Experimental results show that our relevancy prediction model (BERT-QA)
outperforms all other variants and has an improvement of 12.36% in F1 score
compared to the BERT-base baseline. Our generation model (T5-QA) outperforms
the baselines in all content preservation metrics such as BLEU, ROUGE and has
an average improvement of 35.02% in ROUGE and 198.75% in BLEU compared to the
highest performing baseline (HSSC-q). Human evaluation of our pipeline shows us
that our method has an overall improvement in accuracy of 30.7% over the
generation model (T5-QA), resulting in our full pipeline-based approach (MSQAP)
providing more accurate answers. To the best of our knowledge, this is the
first work in the e-commerce domain that automatically generates natural
language answers combining the information present in diverse sources such as
specifications, similar questions, and reviews data.
- Abstract(参考訳): ユーザーが購入に興味を持つ製品について投稿した数百万の質問を考えると、自動質問応答はeコマースにおいて重要かつ困難なタスクである。
したがって、製品に関する関連情報を用いて迅速な応答を提供する自動回答生成システムに対する大きな需要がある。
ユーザが投稿したクエリに回答するための知識ソースは3つあり、レビュー、重複または類似の質問、仕様である。
これらの情報ソースを効果的に活用することは、複雑な質問に答えるのに大いに役立ちます。
しかし、これらのソースを利用する際には、主な課題が2つある。
(i)無関係な情報の存在、及び
(II) 評論や同様の質問に感情の曖昧さが存在すること。
本研究は, 応答を生成する前に, 関連性および曖昧性予測を別々に行うことにより, 上記ソースに存在する豊富な情報を利用する新しいパイプライン (MSQAP) を提案する。
実験結果から,我々の関係予測モデル (BERT-QA) は他の変種よりも優れており, BERTベースラインと比較してF1スコアが12.36%向上していることがわかった。
我々の生成モデル(T5-QA)は,BLEU,ROUGEなどのコンテンツ保存指標のベースラインを上回り,ROUGEの35.02%,BLEUの198.75%を最高パフォーマンスベースライン(HSSC-q)と比較して平均的に改善している。
パイプラインの人間による評価は、生成モデル(T5-QA)よりも精度が30.7%向上していることを示し、その結果、完全なパイプラインベースのアプローチ(MSQAP)により、より正確な回答が得られます。
私たちの知る限りでは、仕様や類似の質問、レビューデータなど、さまざまなソースに存在する情報を組み合わせることで自然言語による回答を自動的に生成する、eコマースドメインにおける最初の作業です。
関連論文リスト
- The Structure of Financial Equity Research Reports -- Identification of the Most Frequently Asked Questions in Financial Analyst Reports to Automate Equity Research Using Llama 3 and GPT-4 [6.085131799375494]
この研究は72のERRの文を文単位で分析し、48.7%の文を169の質問アーチタイプに分類した。
我々は質問を事前に定義しなかったが、ERRの声明からのみ派生した。
この研究は、現在のERRの書き込みプロセスが、さらなる自動化、品質と効率の改善の恩恵を受ける可能性があることを裏付けている。
論文 参考訳(メタデータ) (2024-07-04T15:58:02Z) - Prompt-Engineering and Transformer-based Question Generation and
Evaluation [0.0]
本稿では,変換器モデルを用いてテキストデータから質問を生成する最良の方法を見つけ,エンジニアリングを急ぐことを目的とする。
生成した質問は、SQuADデータセットのベースライン質問と比較し、4つの異なるプロンプトの有効性を評価した。
論文 参考訳(メタデータ) (2023-10-29T01:45:30Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - KEPR: Knowledge Enhancement and Plausibility Ranking for Generative
Commonsense Question Answering [11.537283115693432]
本稿では,ジェネレート・Then-Rankパイプラインアーキテクチャに基づく知識向上と可視性ランキング手法を提案する。
具体的には、キーワードのWiktionary Commonsense知識の観点から質問を拡張し、正規化パターンで修正する。
ELECTRAに基づく回答ランキングモデルを構築し、学習中にロジスティック回帰を行う。
論文 参考訳(メタデータ) (2023-05-15T04:58:37Z) - HeteroQA: Learning towards Question-and-Answering through Multiple
Information Sources via Heterogeneous Graph Modeling [50.39787601462344]
コミュニティ質問回答(Community Question Answering, CQA)は、Eコマースやオンラインユーザコミュニティなど、多くのシナリオで利用することができる、明確に定義されたタスクである。
CQAの手法のほとんどは、知識を抽出し、ユーザの質問に答えるために記事やウィキペディアしか含まない。
ユーザコミュニティに複数の情報ソース(MIS)を組み込んで回答を自動的に生成する問合せ対応の異種グラフ変換器を提案する。
論文 参考訳(メタデータ) (2021-12-27T10:16:43Z) - Question Answering Survey: Directions, Challenges, Datasets, Evaluation
Matrices [0.0]
QA分野の研究の方向性は,質問の種類,回答の種類,根拠の源泉,モデリングアプローチに基づいて分析される。
これに続き、自動質問生成、類似性検出、言語に対する低リソース可用性など、この分野のオープンな課題が続きます。
論文 参考訳(メタデータ) (2021-12-07T08:53:40Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Will this Question be Answered? Question Filtering via Answer Model
Distillation for Efficient Question Answering [99.66470885217623]
本稿では,質問回答システム(QA)の効率向上に向けた新しいアプローチを提案する。
最新のQAシステムの回答信頼性スコアは、入力された質問テキストのみを使用してモデルによってうまく近似することができる。
論文 参考訳(メタデータ) (2021-09-14T23:07:49Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。