論文の概要: Solving Price Per Unit Problem Around the World: Formulating Fact
Extraction as Question Answering
- arxiv url: http://arxiv.org/abs/2204.05555v1
- Date: Tue, 12 Apr 2022 06:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 11:40:52.537947
- Title: Solving Price Per Unit Problem Around the World: Formulating Fact
Extraction as Question Answering
- Title(参考訳): 世界中のユニット当たりの価格問題の解決--質問回答としてのファクト抽出の定式化
- Authors: Tarik Arici, Kushal Kumar, Hayreddin \c{C}eker, Anoop S V K K Saladi,
Ismail Tutar
- Abstract要約: プライス・パー・ユニット(PPU)は、商品を比較する際に、eコマースのウェブサイトで買い物をする消費者にとって重要な情報である。
我々は、事実抽出のための名前付きエンティティ認識(NER)タスクではなく、質問応答(QA)タスクとしてこの問題を定式化する。
我々のQAアプローチは、ルールベースの手法を34.4%精度で上回り、また世界中の店舗でBERTベースの事実抽出手法も優れている。
- 参考スコア(独自算出の注目度): 4.094848360328624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Price Per Unit (PPU) is an essential information for consumers shopping on
e-commerce websites when comparing products. Finding total quantity in a
product is required for computing PPU, which is not always provided by the
sellers. To predict total quantity, all relevant quantities given in a product
attributes such as title, description and image need to be inferred correctly.
We formulate this problem as a question-answering (QA) task rather than named
entity recognition (NER) task for fact extraction. In our QA approach, we first
predict the unit of measure (UoM) type (e.g., volume, weight or count), that
formulates the desired question (e.g., "What is the total volume?") and then
use this question to find all the relevant answers. Our model architecture
consists of two subnetworks for the two subtasks: a classifier to predict UoM
type (or the question) and an extractor to extract the relevant quantities. We
use a deep character-level CNN architecture for both subtasks, which enables
(1) easy expansion to new stores with similar alphabets, (2) multi-span
answering due to its span-image architecture and (3) easy deployment by keeping
model-inference latency low. Our QA approach outperforms rule-based methods by
34.4% in precision and also BERT-based fact extraction approach in all stores
globally, with largest precision lift of 10.6% in the US store.
- Abstract(参考訳): プライス・パー・ユニット(PPU)は、商品を比較する際に、eコマースのウェブサイトで買い物をする消費者にとって重要な情報である。
販売者が常に提供していないPPUの計算には、製品内の総量を見つける必要がある。
総量を予測するには、タイトル、説明、画像などの製品属性に与えられるすべての関連量を正しく推測する必要がある。
我々は、事実抽出のための名前付きエンティティ認識(NER)タスクではなく、質問応答(QA)タスクとしてこの問題を定式化する。
当社のqaアプローチでは、まず、所望の質問("総容積"とは何か)を定式化した測定単位(uom)タイプ(ボリューム、重量、数量など)を予測し、その後、この質問を使って関連するすべての回答を見つけます。
モデルアーキテクチャは,UoM型(または疑問)を予測する分類器と,関連する量を抽出する抽出器の2つのサブネットワークから構成される。
我々は,(1)類似のアルファベットを持つ新しいストアへの拡張が容易なサブタスク,(2)スパン型アーキテクチャによるマルチスパン応答,(3)モデル推論遅延を低く保ち,デプロイが容易なサブタスクに対して,文字レベルCNNアーキテクチャを使用する。
当社のQAアプローチはルールベースの手法を34.4%の精度で上回り、BERTベースの事実抽出手法を全世界の店舗で採用しています。
関連論文リスト
- Language Models Benefit from Preparation with Elicited Knowledge [0.38233569758620056]
ゼロショット・チェーン・オブ・シンキング(CoT)アプローチは言語モデル(LM)による質問応答(QA)によく使用される。
本稿では,LMの2つのインスタンスを使用する,PreprePと呼ばれる単純な汎用的プロンプト手法を提案する。
PrePは、ユーザのドメイン知識から独立して設計されており、特別なプロンプトエンジニアリングを必要とせずに、様々なQAタスクに適用できる。
論文 参考訳(メタデータ) (2024-09-02T15:58:27Z) - Answering Subjective Induction Questions on Products by Summarizing
Multi-sources Multi-viewpoints Knowledge [0.04791377777154766]
本稿では,製品に対する主観的誘導質問に対する回答の分野における新しい課題を提案する。
この種の質問に対する答えは普遍的ではないが、多くの観点から解釈できる。
満足した答えは、これらの主観的な意見を複数の情報源から要約し、客観的な知識を提供することができるべきである。
論文 参考訳(メタデータ) (2023-09-12T03:27:08Z) - Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Long-Tailed Question Answering in an Open World [46.67715607552547]
我々は、Long-Tailed QA (OLTQA) を、長い尾の分散データから学習するものとして定義する。
OLTQAモデルを提案し,頭,尾,目立たないタスク間の知識共有を促進する。
大規模なOLTQAデータセットでは、我々のモデルは一貫して最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-11T04:28:58Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Summarizing Community-based Question-Answer Pairs [5.680726650578754]
本稿では,CQAペアから簡潔な要約を作成することを目的とした,新しいCQA要約タスクを提案する。
私たちのデータとコードは公開されています。
論文 参考訳(メタデータ) (2022-11-17T21:09:41Z) - PACIFIC: Towards Proactive Conversational Question Answering over
Tabular and Textual Data in Finance [96.06505049126345]
我々はPACIFICという新しいデータセットを提案する。既存のCQAデータセットと比較すると、PACIFICは(i)活動性、(ii)数値推論、(iii)表とテキストのハイブリッドコンテキストの3つの重要な特徴を示す。
質問生成とCQAを組み合わせたPCQA(Proactive Conversational Question Answering)に基づいて,新しいタスクを定義する。
UniPCQAはPCQAのすべてのサブタスク上でマルチタスク学習を行い、Seeq2Seqの上位$kのサンプルをクロスバリデーションすることで、マルチタスク学習におけるエラー伝搬問題を緩和するための単純なアンサンブル戦略を取り入れている。
論文 参考訳(メタデータ) (2022-10-17T08:06:56Z) - Answer Generation for Questions With Multiple Information Sources in
E-Commerce [0.0]
本稿では,関連性やあいまいさの予測を別々に行うことで,上記ソースに存在する豊富な情報を利用する新しいパイプライン(MSQAP)を提案する。
これは、仕様、類似の質問、データレビューなど、さまざまなソースに存在する情報を組み合わせた自然言語の回答を自動的に生成する、eコマース領域における最初の作業である。
論文 参考訳(メタデータ) (2021-11-27T23:19:49Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。