論文の概要: A Sequence to Sequence Model for Extracting Multiple Product Name
Entities from Dialog
- arxiv url: http://arxiv.org/abs/2110.14843v1
- Date: Thu, 28 Oct 2021 01:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-30 08:07:40.907531
- Title: A Sequence to Sequence Model for Extracting Multiple Product Name
Entities from Dialog
- Title(参考訳): ダイアログから複数の製品名エンティティを抽出するシーケンスツーシーケンスモデル
- Authors: Praneeth Gubbala, Xuan Zhang
- Abstract要約: Amazon Alexaのような既存の音声注文システムは、単一の製品名エンティティのみをキャプチャできる。
本稿では,最大10項目を発話で認識するエンティティトランスフォーマー(ET)ニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 2.9299798085291195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: E-commerce voice ordering systems need to recognize multiple product name
entities from ordering utterances. Existing voice ordering systems such as
Amazon Alexa can capture only a single product name entity. This restrains
users from ordering multiple items with one utterance. In recent years,
pre-trained language models, e.g., BERT and GPT-2, have shown promising results
on NLP benchmarks like Super-GLUE. However, they can't perfectly generalize to
this Multiple Product Name Entity Recognition (MPNER) task due to the ambiguity
in voice ordering utterances. To fill this research gap, we propose Entity
Transformer (ET) neural network architectures which recognize up to 10 items in
an utterance. In our evaluation, the best ET model (conveRT + ngram + ET) has a
performance improvement of 12% on our test set compared to the non-neural
model, and outperforms BERT with ET as well. This helps customers finalize
their shopping cart via voice dialog, which improves shopping efficiency and
experience.
- Abstract(参考訳): eコマース音声注文システムは、注文発話から複数の商品名エンティティを認識する必要がある。
Amazon Alexaのような既存の音声注文システムは、単一の製品名エンティティのみをキャプチャできる。
これにより、ユーザーは1つの発話で複数のアイテムを注文することを抑える。
近年では、BERTやGPT-2といった事前訓練された言語モデルは、Super-GLUEのようなNLPベンチマークで有望な結果を示している。
しかし、音声注文発話のあいまいさのため、このMPNER(Multiple Product Name Entity Recognition)タスクに完全には適用できない。
この研究のギャップを埋めるために,最大10項目の発話を認識するエンティティトランスフォーマ(et)ニューラルネットワークアーキテクチャを提案する。
評価では, ベストETモデル(conveRT + ngram + ET)は, 非神経モデルと比較してテストセットで12%向上し, ETではBERTよりも優れていた。
これによって顧客は音声ダイアログでショッピングカートを仕上げることができ、ショッピングの効率とエクスペリエンスが向上する。
関連論文リスト
- Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z) - Language-agnostic Code-Switching in Sequence-To-Sequence Speech
Recognition [62.997667081978825]
コードスイッチング(Code-Switching, CS)とは、異なる言語の単語やフレーズを交互に使用する現象である。
本稿では,異なるソース言語の音声および対応するラベルを転写する,シンプルで効果的なデータ拡張手法を提案する。
さらに,5,03%のWERによるトレーニング中に見つからない文間言語スイッチにおいて,モデルの性能を向上できることを示す。
論文 参考訳(メタデータ) (2022-10-17T12:15:57Z) - Generating Rich Product Descriptions for Conversational E-commerce
Systems [6.594755784216671]
通常、eコマース企業は短い商品のタイトルをウェブページに表示している。
本稿では,eコマース製品記述コーパスへのBERT埋め込みをさらに事前学習することで,シーケンス・ツー・シーケンスのアプローチであるeBERTを提案する。
実世界の産業データセットと,モデル出力の人間による評価実験により,eBERTの要約が同等のベースラインモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-11-30T11:22:43Z) - Deploying a BERT-based Query-Title Relevance Classifier in a Production
System: a View from the Trenches [3.1219977244201056]
変換器(BERT)モデルによる双方向表現は,多くの自然言語処理(NLP)タスクの性能を大幅に向上させてきた。
BERTを低レイテンシ、高スループットの産業用ユースケースにスケールすることは、その巨大なサイズのために困難である。
BERT Bidirectional Long Short-Term Memory (BertBiLSTM) という名前のコンパクトモデルによるデプロイメントのためのQTR分類器の最適化に成功した。
BertBiLSTMは、上記の実世界の生産作業における精度と効率の観点から、既成のBERTモデルの性能を上回る
論文 参考訳(メタデータ) (2021-08-23T14:28:23Z) - Hierarchical Pre-training for Sequence Labelling in Spoken Dialog [10.216901061363641]
音声対話に適応した汎用表現を学習するための新しい手法を提案する。
変換器アーキテクチャに基づく階層エンコーダを用いて表現を得る。
プレトレーニングはOpenSubtitles(英語版)で行われ、2.3億ドル以上のトークンを含む対話ダイアログの大規模なコーパスである。
論文 参考訳(メタデータ) (2020-09-23T13:54:57Z) - E-BERT: A Phrase and Product Knowledge Enhanced Language Model for
E-commerce [63.333860695727424]
電子商取引タスクは、ドメインフレーズの正確な理解を必要とするが、そのようなきめ細かいフレーズレベルの知識は、BERTの訓練目的によって明示的にモデル化されていない。
この問題に対処するため、我々はE-BERTという統合事前学習フレームワークを提案する。
具体的には、フレーズレベルの知識を保存するために、適応的ハイブリッドマスキングを導入し、モデルが予備単語の知識から複雑なフレーズの学習に適応的に切り替えることを可能にする。
製品レベルの知識を活用するために,E-BERT を訓練し,製品に付随する隣人を認知的なクロスアテンション層で予測するNighbor Product Restruction を導入する。
論文 参考訳(メタデータ) (2020-09-07T00:15:36Z) - Product Title Generation for Conversational Systems using BERT [9.52564724798302]
入力されたWebタイトルから、短時間で自然な音声言語タイトルを生成するためのシーケンス・ツー・シーケンス手法を提案する。
BERTの要約は、実世界の業界データセットでの実験において、同等のベースラインモデルを上回っている。
論文 参考訳(メタデータ) (2020-07-23T03:15:19Z) - Contextual RNN-T For Open Domain ASR [41.83409885125617]
自動音声認識(ASR)のためのエンドツーエンド(E2E)システムは、従来のハイブリッドASRシステムの個々のコンポーネントを1つのニューラルネットワークに混ぜる。
これは優れた利点があり、ペアオーディオとテキストのみを使用してシステムをトレーニングすることを制限する。
このため、E2Eモデルは、エンティティ名などのトレーニング中に頻繁に見られることのない稀な単語を正しく認識することが困難になる傾向にある。
本稿では,RNN-Tモデルに改良を加えて,これらの名前付きエンティティワードの性能向上を目的としたメタデータテキストの追加を可能にする。
論文 参考訳(メタデータ) (2020-06-04T04:37:03Z) - Many-to-Many Voice Transformer Network [55.17770019619078]
本稿では,S2S学習フレームワークに基づく音声変換(VC)手法を提案する。
これにより、音声特性、ピッチ輪郭、入力音声の持続時間の同時変換が可能となる。
論文 参考訳(メタデータ) (2020-05-18T04:02:08Z) - Interpretability Analysis for Named Entity Recognition to Understand
System Predictions and How They Can Improve [49.878051587667244]
名前付きエンティティ認識のためのLSTM-CRFアーキテクチャの性能について検討する。
文脈表現はシステムの性能に寄与するが、ハイパフォーマンスを駆動する主な要因は、名前トークン自体を学習することにある。
我々は、コンテキストのみからエンティティタイプを推測する可能性を評価するために、人間アノテーションを登録し、コンテキストのみのシステムによるエラーの大部分に対してエンティティタイプを推論することはできないが、改善の余地はいくつかある。
論文 参考訳(メタデータ) (2020-04-09T14:37:12Z) - DSTC8-AVSD: Multimodal Semantic Transformer Network with Retrieval Style
Word Generator [61.70748716353692]
オーディオ・ビジュアル・シーン・アウェア・ダイアログ(AVSD)は、あるシーン、ビデオ、オーディオ、ダイアログの前のターン履歴で質問に対する応答を生成するタスクである。
このタスクの既存のシステムは、エンコーダ-デコーダフレームワークを備えたトランスフォーマーまたはリカレントニューラルネットワークベースのアーキテクチャを採用している。
本稿では,マルチモーダル・セマンティック・トランスフォーマー・ネットワークを提案し,単語の埋め込みを問合せすることで単語を生成する単語埋め込み層を備えたトランスフォーマー・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-01T07:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。