論文の概要: A Sequence to Sequence Model for Extracting Multiple Product Name
Entities from Dialog
- arxiv url: http://arxiv.org/abs/2110.14843v1
- Date: Thu, 28 Oct 2021 01:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-30 08:07:40.907531
- Title: A Sequence to Sequence Model for Extracting Multiple Product Name
Entities from Dialog
- Title(参考訳): ダイアログから複数の製品名エンティティを抽出するシーケンスツーシーケンスモデル
- Authors: Praneeth Gubbala, Xuan Zhang
- Abstract要約: Amazon Alexaのような既存の音声注文システムは、単一の製品名エンティティのみをキャプチャできる。
本稿では,最大10項目を発話で認識するエンティティトランスフォーマー(ET)ニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 2.9299798085291195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: E-commerce voice ordering systems need to recognize multiple product name
entities from ordering utterances. Existing voice ordering systems such as
Amazon Alexa can capture only a single product name entity. This restrains
users from ordering multiple items with one utterance. In recent years,
pre-trained language models, e.g., BERT and GPT-2, have shown promising results
on NLP benchmarks like Super-GLUE. However, they can't perfectly generalize to
this Multiple Product Name Entity Recognition (MPNER) task due to the ambiguity
in voice ordering utterances. To fill this research gap, we propose Entity
Transformer (ET) neural network architectures which recognize up to 10 items in
an utterance. In our evaluation, the best ET model (conveRT + ngram + ET) has a
performance improvement of 12% on our test set compared to the non-neural
model, and outperforms BERT with ET as well. This helps customers finalize
their shopping cart via voice dialog, which improves shopping efficiency and
experience.
- Abstract(参考訳): eコマース音声注文システムは、注文発話から複数の商品名エンティティを認識する必要がある。
Amazon Alexaのような既存の音声注文システムは、単一の製品名エンティティのみをキャプチャできる。
これにより、ユーザーは1つの発話で複数のアイテムを注文することを抑える。
近年では、BERTやGPT-2といった事前訓練された言語モデルは、Super-GLUEのようなNLPベンチマークで有望な結果を示している。
しかし、音声注文発話のあいまいさのため、このMPNER(Multiple Product Name Entity Recognition)タスクに完全には適用できない。
この研究のギャップを埋めるために,最大10項目の発話を認識するエンティティトランスフォーマ(et)ニューラルネットワークアーキテクチャを提案する。
評価では, ベストETモデル(conveRT + ngram + ET)は, 非神経モデルと比較してテストセットで12%向上し, ETではBERTよりも優れていた。
これによって顧客は音声ダイアログでショッピングカートを仕上げることができ、ショッピングの効率とエクスペリエンスが向上する。
関連論文リスト
- Order-agnostic Identifier for Large Language Model-based Generative Recommendation [94.37662915542603]
アイテムは、ユーザ履歴をエンコードし、次のアイテムを生成するために、LLM(Large Language Models)の識別子に割り当てられる。
既存のアプローチでは、トークンシーケンス識別子を使用して、アイテムを個別のトークンシーケンスとして表現するか、IDまたはセマンティック埋め込みを使用して単一トークン識別子を使用する。
本稿では,セマンティック・トークンライザを利用するSETRecを提案する。
論文 参考訳(メタデータ) (2025-02-15T15:25:38Z) - Semantic Ads Retrieval at Walmart eCommerce with Language Models Progressively Trained on Multiple Knowledge Domains [6.1008328784394]
Walmart.comの広告検索システムを最適化するために,エンド・ツー・エンドのソリューションを提案する。
当社のアプローチは,製品カテゴリ情報を用いたBERTライクな分類モデルを事前学習することである。
ベースラインDSSMベースのモデルと比較して,検索関連度を最大16%向上させる。
論文 参考訳(メタデータ) (2025-02-13T09:01:34Z) - "I've Heard of You!": Generate Spoken Named Entity Recognition Data for Unseen Entities [59.22329574700317]
名前付きエンティティ認識(NER)は、名前付きエンティティを音声から識別することを目的としている。
しかし、新しい名前のエンティティが毎日現れ、Spoken NERデータに注釈をつけるのはコストがかかる。
そこで本稿では,NEDに基づく音声NERデータ生成手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T07:43:18Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z) - Generating Rich Product Descriptions for Conversational E-commerce
Systems [6.594755784216671]
通常、eコマース企業は短い商品のタイトルをウェブページに表示している。
本稿では,eコマース製品記述コーパスへのBERT埋め込みをさらに事前学習することで,シーケンス・ツー・シーケンスのアプローチであるeBERTを提案する。
実世界の産業データセットと,モデル出力の人間による評価実験により,eBERTの要約が同等のベースラインモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-11-30T11:22:43Z) - Hierarchical Pre-training for Sequence Labelling in Spoken Dialog [10.216901061363641]
音声対話に適応した汎用表現を学習するための新しい手法を提案する。
変換器アーキテクチャに基づく階層エンコーダを用いて表現を得る。
プレトレーニングはOpenSubtitles(英語版)で行われ、2.3億ドル以上のトークンを含む対話ダイアログの大規模なコーパスである。
論文 参考訳(メタデータ) (2020-09-23T13:54:57Z) - Product Title Generation for Conversational Systems using BERT [9.52564724798302]
入力されたWebタイトルから、短時間で自然な音声言語タイトルを生成するためのシーケンス・ツー・シーケンス手法を提案する。
BERTの要約は、実世界の業界データセットでの実験において、同等のベースラインモデルを上回っている。
論文 参考訳(メタデータ) (2020-07-23T03:15:19Z) - Contextual RNN-T For Open Domain ASR [41.83409885125617]
自動音声認識(ASR)のためのエンドツーエンド(E2E)システムは、従来のハイブリッドASRシステムの個々のコンポーネントを1つのニューラルネットワークに混ぜる。
これは優れた利点があり、ペアオーディオとテキストのみを使用してシステムをトレーニングすることを制限する。
このため、E2Eモデルは、エンティティ名などのトレーニング中に頻繁に見られることのない稀な単語を正しく認識することが困難になる傾向にある。
本稿では,RNN-Tモデルに改良を加えて,これらの名前付きエンティティワードの性能向上を目的としたメタデータテキストの追加を可能にする。
論文 参考訳(メタデータ) (2020-06-04T04:37:03Z) - Many-to-Many Voice Transformer Network [55.17770019619078]
本稿では,S2S学習フレームワークに基づく音声変換(VC)手法を提案する。
これにより、音声特性、ピッチ輪郭、入力音声の持続時間の同時変換が可能となる。
論文 参考訳(メタデータ) (2020-05-18T04:02:08Z) - Interpretability Analysis for Named Entity Recognition to Understand
System Predictions and How They Can Improve [49.878051587667244]
名前付きエンティティ認識のためのLSTM-CRFアーキテクチャの性能について検討する。
文脈表現はシステムの性能に寄与するが、ハイパフォーマンスを駆動する主な要因は、名前トークン自体を学習することにある。
我々は、コンテキストのみからエンティティタイプを推測する可能性を評価するために、人間アノテーションを登録し、コンテキストのみのシステムによるエラーの大部分に対してエンティティタイプを推論することはできないが、改善の余地はいくつかある。
論文 参考訳(メタデータ) (2020-04-09T14:37:12Z) - DSTC8-AVSD: Multimodal Semantic Transformer Network with Retrieval Style
Word Generator [61.70748716353692]
オーディオ・ビジュアル・シーン・アウェア・ダイアログ(AVSD)は、あるシーン、ビデオ、オーディオ、ダイアログの前のターン履歴で質問に対する応答を生成するタスクである。
このタスクの既存のシステムは、エンコーダ-デコーダフレームワークを備えたトランスフォーマーまたはリカレントニューラルネットワークベースのアーキテクチャを採用している。
本稿では,マルチモーダル・セマンティック・トランスフォーマー・ネットワークを提案し,単語の埋め込みを問合せすることで単語を生成する単語埋め込み層を備えたトランスフォーマー・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-01T07:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。