論文の概要: Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training
- arxiv url: http://arxiv.org/abs/2011.13439v2
- Date: Tue, 16 Feb 2021 17:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:38:48.715530
- Title: Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training
- Title(参考訳): 不確かさ駆動型自己学習による音声認識のための教師なしドメイン適応
- Authors: Sameer Khurana, Niko Moritz, Takaaki Hori, Jonathan Le Roux
- Abstract要約: WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
- 参考スコア(独自算出の注目度): 55.824641135682725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of automatic speech recognition (ASR) systems typically
degrades significantly when the training and test data domains are mismatched.
In this paper, we show that self-training (ST) combined with an
uncertainty-based pseudo-label filtering approach can be effectively used for
domain adaptation. We propose DUST, a dropout-based uncertainty-driven
self-training technique which uses agreement between multiple predictions of an
ASR system obtained for different dropout settings to measure the model's
uncertainty about its prediction. DUST excludes pseudo-labeled data with high
uncertainties from the training, which leads to substantially improved ASR
results compared to ST without filtering, and accelerates the training time due
to a reduced training data set. Domain adaptation experiments using WSJ as a
source domain and TED-LIUM 3 as well as SWITCHBOARD as the target domains show
that up to 80% of the performance of a system trained on ground-truth data can
be recovered.
- Abstract(参考訳): 自動音声認識(asr)システムの性能は、トレーニングとテストデータドメインがミスマッチした場合に著しく低下する。
本稿では,不確実性に基づく擬似ラベルフィルタリング手法を併用した自己学習(ST)が,ドメイン適応に有効であることを示す。
本研究では,異なるドロップアウト設定で得られたasrシステムの複数予測間の一致を利用して,モデルの予測の不確実性を測定する,ドロップアウトに基づく不確実性駆動型自己学習手法であるダストを提案する。
DUSTはトレーニングから高い不確実性を有する擬似ラベルデータを除外し、フィルタ無しのSTと比較してASR結果を大幅に改善し、トレーニングデータセットの縮小によるトレーニング時間を短縮する。
WSJをソースドメインとし、TED-Lium 3とSWITCHBOARDをターゲットドメインとしたドメイン適応実験により、地上データに基づいてトレーニングされたシステムの性能の最大80%を回復できることを示した。
関連論文リスト
- Calibrated Adaptive Teacher for Domain Adaptive Intelligent Fault
Diagnosis [7.88657961743755]
教師なしのドメイン適応(UDA)は、ラベル付きデータがソースドメインで利用可能であり、ラベルなしデータがターゲットドメインでのみ利用可能であるシナリオを扱う。
本稿では,自己学習過程を通じて教師ネットワークの予測を校正する,Calibrated Adaptive Teacher (CAT) と呼ばれる新しいUDA手法を提案する。
論文 参考訳(メタデータ) (2023-12-05T15:19:29Z) - Attentive Continuous Generative Self-training for Unsupervised Domain
Adaptive Medical Image Translation [12.080054869408213]
本研究では,連続的な値予測と回帰目標を用いた領域適応型画像翻訳のための自己学習フレームワークを開発した。
我々は,T1-重み付きMR-屈折異方性変換を含む2つの対象間翻訳タスクの枠組みについて検討した。
論文 参考訳(メタデータ) (2023-05-23T23:57:44Z) - Uncertainty-Aware Source-Free Adaptive Image Super-Resolution with Wavelet Augmentation Transformer [60.31021888394358]
Unsupervised Domain Adaptation (UDA)は、現実世界の超解像(SR)における領域ギャップ問題に効果的に対処できる
本稿では,画像SR(SODA-SR)のためのSOurce-free Domain Adaptationフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T03:14:44Z) - Boosting Cross-Domain Speech Recognition with Self-Supervision [35.01508881708751]
自動音声認識(ASR)のクロスドメイン性能は,トレーニングとテストのミスマッチにより著しく損なわれる可能性がある。
従来, 自己監督学習 (SSL) や擬似ラベル学習 (PL) は, 未ラベルデータの自己監督を利用してUDAに有効であることが示された。
この研究は、事前学習および微調整のパラダイムにおいて、ラベルなしデータを完全に活用する体系的なUDAフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-20T14:02:53Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Listen, Adapt, Better WER: Source-free Single-utterance Test-time
Adaptation for Automatic Speech Recognition [65.84978547406753]
Test-time Adaptationは、ソースドメインでトレーニングされたモデルに適応して、テストサンプルの予測を改善することを目的としている。
単一発話テスト時間適応 (SUTA) は音声領域における最初のTTA研究である。
論文 参考訳(メタデータ) (2022-03-27T06:38:39Z) - Uncertainty-aware Mean Teacher for Source-free Unsupervised Domain
Adaptive 3D Object Detection [6.345037597566315]
擬似ラベルに基づく自己学習アプローチは、ソースフリーな教師なしドメイン適応の一般的な方法である。
本研究では,学習中に誤字を暗黙的にフィルタリングする不確実性認識型平均教師フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-29T18:17:09Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - Understanding Self-Training for Gradual Domain Adaptation [107.37869221297687]
段階的なドメイン適応は、対象領域へ徐々にシフトするラベルのないデータのみを与えられたソースドメインで訓練された初期分類器を適応させることが目的である。
目標領域への直接適応が非有界誤差をもたらすような設定下において、段階的なシフトを伴う自己学習の誤差に対する最初の非無空上界を証明した。
この理論解析はアルゴリズムの洞察を導き、無限のデータを持つ場合でも正規化とラベルのシャープ化が不可欠であることを強調し、より小さなワッサーシュタイン無限距離のシフトに対して自己学習が特にうまく働くことを示唆している。
論文 参考訳(メタデータ) (2020-02-26T08:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。