論文の概要: Retraining DistilBERT for a Voice Shopping Assistant by Using Universal
Dependencies
- arxiv url: http://arxiv.org/abs/2103.15737v1
- Date: Mon, 29 Mar 2021 16:24:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:40:50.512603
- Title: Retraining DistilBERT for a Voice Shopping Assistant by Using Universal
Dependencies
- Title(参考訳): ユニバーサル依存性を利用した音声ショッピングアシスタントにおける DistilBERT のリトレーニング
- Authors: Pratik Jayarao and Arpit Sharma
- Abstract要約: 我々は、walmartの音声ショッピングアシスタントの蒸留bert言語モデルを小売ドメイン固有のデータに基づいて再訓練した。
モデルの性能をさらに向上させるために、普遍的な構文依存を注入した。
- 参考スコア(独自算出の注目度): 3.5788754401889014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we retrained the distilled BERT language model for Walmart's
voice shopping assistant on retail domain-specific data. We also injected
universal syntactic dependencies to improve the performance of the model
further. The Natural Language Understanding (NLU) components of the voice
assistants available today are heavily dependent on language models for various
tasks. The generic language models such as BERT and RoBERTa are useful for
domain-independent assistants but have limitations when they cater to a
specific domain. For example, in the shopping domain, the token 'horizon' means
a brand instead of its literal meaning. Generic models are not able to capture
such subtleties. So, in this work, we retrained a distilled version of the BERT
language model on retail domain-specific data for Walmart's voice shopping
assistant. We also included universal dependency-based features in the
retraining process further to improve the performance of the model on
downstream tasks. We evaluated the performance of the retrained language model
on four downstream tasks, including intent-entity detection, sentiment
analysis, voice title shortening and proactive intent suggestion. We observed
an increase in the performance of all the downstream tasks of up to 1.31% on
average.
- Abstract(参考訳): 本研究では,walmartの音声ショッピングアシスタントのための蒸留bert言語モデルを,小売分野別データを用いて再訓練した。
さらに,モデルのさらなるパフォーマンス向上のために,ユニバーサル構文依存性も注入しました。
現在利用可能な音声アシスタントの自然言語理解(NLU)コンポーネントは、様々なタスクの言語モデルに大きく依存している。
BERTやRoBERTaといった汎用言語モデルは、ドメインに依存しないアシスタントには便利だが、特定のドメインに対応する場合に制限がある。
例えば、ショッピングドメインでは、トークン「ホリゾン」は文字通りの意味ではなくブランドを意味する。
ジェネリックモデルはそのような微妙な特徴を捉えることができない。
そこで本研究では、Walmartの音声ショッピングアシスタントのための小売ドメイン固有のデータに基づいて、BERT言語モデルの蒸留版を再訓練した。
さらに、リトレーニングプロセスにユニバーサルな依存性ベースの機能を追加して、ダウンストリームタスクにおけるモデルのパフォーマンスを改善しました。
本研究は,意図度検出,感情分析,声帯短縮,前向きの意図提案を含む4つの下流課題における言語モデルの性能評価を行った。
ダウンストリームタスク全体のパフォーマンスは,平均1.31%まで向上した。
関連論文リスト
- A Tale of Two Languages: Large-Vocabulary Continuous Sign Language Recognition from Spoken Language Supervision [74.972172804514]
我々は,署名された言語と音声のテキスト間の共同埋め込み空間において,署名シーケンスと出力を抽出できるマルチタスクトランスフォーマーモデルCSLR2を導入する。
新しいデータセットアノテーションは、6時間のテストビデオに対して、連続的なサインレベルアノテーションを提供する。
私たちのモデルは、両方のタスクにおいて、過去の技術状況よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-05-16T17:19:06Z) - Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - BRENT: Bidirectional Retrieval Enhanced Norwegian Transformer [1.911678487931003]
検索ベースの言語モデルは、質問応答タスクにますます採用されている。
我々はREALMフレームワークを適用し,ノルウェー初の検索モデルを開発した。
本研究では,このような学習により,抽出質問応答における読み手のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-04-19T13:40:47Z) - Distilling a Pretrained Language Model to a Multilingual ASR Model [3.4012007729454816]
教師のテキストモデルに埋め込まれた豊富な知識を学生の音声モデルに蒸留する。
我々は,100時間未満の音声データを持つCommonVoiceデータセットの低リソース言語20言語に対して,本手法の優位性を示す。
論文 参考訳(メタデータ) (2022-06-25T12:36:11Z) - Multimodal Knowledge Alignment with Reinforcement Learning [103.68816413817372]
ESPERは言語のみのゼロショットモデルを拡張して、画像や音声のキャプションといったマルチモーダルタスクを未確認にする。
我々の重要な新規性は、強化学習を使用することで、直接監督することなく、多モーダル入力を言語モデル世代に整列させることである。
実験の結果、ESPERはベースラインと様々なゼロショットタスクの事前作業より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-25T10:12:17Z) - Structured Prediction as Translation between Augmented Natural Languages [109.50236248762877]
本研究では,構造化予測言語の課題を解決するために,新しいフレームワークであるTANL(Translation between Augmented Natural Languages)を提案する。
タスク固有の差別を訓練することで問題に取り組む代わりに、拡張自然言語間の翻訳タスクとして位置づける。
提案手法は, タスク固有のモデルに適合するか, 性能に優れ, 特に, 共同エンティティと関係抽出に関する新たな最先端結果が得られる。
論文 参考訳(メタデータ) (2021-01-14T18:32:21Z) - Self-Training Pre-Trained Language Models for Zero- and Few-Shot
Multi-Dialectal Arabic Sequence Labeling [7.310390479801139]
データスカース変種の性能を改善するため、ゼロおよび少数ショットシナリオで事前訓練された言語モデル。
我々の研究は、MSAリソースのみを活用するDAモデルを開発する機会を開く。
論文 参考訳(メタデータ) (2021-01-12T21:29:30Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Multilingual Jointly Trained Acoustic and Written Word Embeddings [22.63696520064212]
このアイデアを複数の低リソース言語に拡張します。
我々は、複数の言語から音声で書き起こされたデータを用いて、AWEモデルとAGWEモデルを共同で訓練する。
事前トレーニングされたモデルは、目に見えないゼロリソース言語や、低リソース言語のデータを微調整するために使用することができる。
論文 参考訳(メタデータ) (2020-06-24T19:16:02Z) - ParsBERT: Transformer-based Model for Persian Language Understanding [0.7646713951724012]
本稿ではペルシャ語用単言語BERT(ParsBERT)を提案する。
他のアーキテクチャや多言語モデルと比較すると、最先端のパフォーマンスを示している。
ParsBERTは、既存のデータセットや合成データセットを含む、すべてのデータセットでより高いスコアを取得する。
論文 参考訳(メタデータ) (2020-05-26T05:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。