論文の概要: Sentence Embedder Guided Utterance Encoder (SEGUE) for Spoken Language
Understanding
- arxiv url: http://arxiv.org/abs/2305.12301v1
- Date: Sat, 20 May 2023 23:55:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 23:11:23.647215
- Title: Sentence Embedder Guided Utterance Encoder (SEGUE) for Spoken Language
Understanding
- Title(参考訳): 音声言語理解のためのSEGUE(Sentence Embedder Guided Utterance Encoder)
- Authors: Yi Xuan Tan, Navonil Majumder, Soujanya Poria
- Abstract要約: 我々は,テキスト文埋め込み器からwav2vec 2.0に直接蒸留する簡単な方法を用いて事前学習を行う。
そこで本手法は,微調整条件下でのSLUタスク性能を向上させることができることを確認した。
しかし、このモデルは、アプローチの強みと弱みを強調するタスクにおいて、さらに悪化します。
- 参考スコア(独自算出の注目度): 20.29393658193842
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The pre-trained speech encoder wav2vec 2.0 performs very well on various
spoken language understanding (SLU) tasks. However, on many tasks, it trails
behind text encoders with textual input. To improve the understanding
capability of SLU encoders, various studies have used knowledge distillation to
transfer knowledge from natural language understanding (NLU) encoders. We use a
very simple method of distilling from a textual sentence embedder directly into
wav2vec 2.0 as pre-training, utilizing paired audio-text datasets. We observed
that this method is indeed capable of improving SLU task performance in
fine-tuned settings, as well as full-data and few-shot transfer on a frozen
encoder. However, the model performs worse on certain tasks highlighting the
strengths and weaknesses of our approach.
- Abstract(参考訳): 事前訓練された音声エンコーダwav2vec 2.0は、様々な音声言語理解(SLU)タスクで非常によく機能する。
しかし、多くのタスクでは、テキストエンコーダの背後にテキスト入力がある。
sluエンコーダの理解能力を向上させるために、様々な研究が自然言語理解(nlu)エンコーダからの知識の伝達に知識蒸留を用いた。
テキスト埋め込み機からwav2vec 2.0に直接蒸留する非常に簡単な方法を用いて,ペアの音声テキストデータセットを用いた事前学習を行う。
凍結エンコーダ上でのフルデータおよび少数ショット転送だけでなく、微調整条件下でのSLUタスク性能も向上できることがわかった。
しかし、このモデルは、アプローチの強みと弱みを強調するタスクにおいて、さらに悪化します。
関連論文リスト
- DeCap: Decoding CLIP Latents for Zero-Shot Captioning via Text-Only
Training [73.74291217502928]
ゼロショットキャプションのための単純なフレームワークであるDeCapを提案する。
軽量な視覚認識言語デコーダを提案する。
視覚的な埋め込みはCLIPテキスト埋め込み空間に投影するが、投影された埋め込みは視覚的な入力の情報を保持する。
論文 参考訳(メタデータ) (2023-03-06T11:02:47Z) - Self-supervised Rewiring of Pre-trained Speech Encoders: Towards Faster
Fine-tuning with Less Labels in Speech Processing [66.92823764664206]
我々は、事前訓練された音声エンコーダを精査し、タスク固有のラベルを必要とせず、その表現空間を再構成する。
6つの音声処理タスクに関する実験では,タスクの微調整と一貫したタスク改善の間に顕著な収束速度が得られた。
論文 参考訳(メタデータ) (2022-10-24T08:27:09Z) - Pre-Training Transformer Decoder for End-to-End ASR Model with Unpaired
Speech Data [145.95460945321253]
本稿では,音響単位,すなわち擬似符号を用いたエンコーダ・デコーダネットワークのための2つの事前学習タスクを提案する。
提案したSpeech2Cは,デコーダを事前学習することなく,単語誤り率(WER)を19.2%削減できる。
論文 参考訳(メタデータ) (2022-03-31T15:33:56Z) - ConvFiT: Conversational Fine-Tuning of Pretrained Language Models [42.7160113690317]
大規模なテキストコレクションに事前訓練されたトランスフォーマーベース言語モデル(LM)は、豊富なセマンティック知識を保存できることが証明されている。
本稿では,任意の事前学習したLMをユニバーサルな会話エンコーダに変換する,シンプルで効率的な2段階の手順であるConvFiTを提案する。
論文 参考訳(メタデータ) (2021-09-21T12:16:56Z) - DeltaLM: Encoder-Decoder Pre-training for Language Generation and
Translation by Augmenting Pretrained Multilingual Encoders [92.90543340071007]
本稿では,事前訓練された多言語エンコーダデコーダモデルDeltaLMを紹介する。
具体的には,事前学習した多言語エンコーダをデコーダで拡張し,自己指導型で事前学習する。
実験により、DeltaLMは自然言語生成と翻訳の両方のタスクにおいて、様々な強力なベースラインを上回ります。
論文 参考訳(メタデータ) (2021-06-25T16:12:10Z) - Scheduled Sampling in Vision-Language Pretraining with Decoupled
Encoder-Decoder Network [99.03895740754402]
本稿では,2つの切り離されたクロスモーダルエンコーダとデコーダが関与するエンコーダ・デコーダ構造の2ストリーム分離設計を提案する。
その代替として,2パス方式でエンコーダデコーダを事前学習することで,そのような不一致を緩和する一次サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2021-01-27T17:36:57Z) - Does Multi-Encoder Help? A Case Study on Context-Aware Neural Machine
Translation [45.28625502349165]
文脈エンコーダは周囲の文を符号化するだけでなく、ノイズ発生器として振る舞う。
これにより、コンテキスト対応翻訳におけるマルチエンコーダの真のメリットを再考することができる。
IWSLT Fr-Enタスクでは,ノイズ生成とドロップアウト手法を慎重に利用することで,新しい最先端のタスクを構築できる。
論文 参考訳(メタデータ) (2020-05-07T11:39:11Z) - Probing Word Translations in the Transformer and Trading Decoder for
Encoder Layers [69.40942736249397]
トランスフォーマー層における単語の翻訳方法はまだ研究されていない。
翻訳はすでにエンコーダ層や入力埋め込みでも徐々に行われています。
実験の結果,翻訳品質が低い2.3までの速度向上が可能であり,さらに18-4のディープエンコーダ構成では翻訳品質が1.42BLEU(En-De)の速度アップで+1.42BLEU(En-De)向上することがわかった。
論文 参考訳(メタデータ) (2020-03-21T06:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。