論文の概要: Domain Adaptation Using Class Similarity for Robust Speech Recognition
- arxiv url: http://arxiv.org/abs/2011.02782v1
- Date: Thu, 5 Nov 2020 12:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:32:35.305489
- Title: Domain Adaptation Using Class Similarity for Robust Speech Recognition
- Title(参考訳): ロバスト音声認識におけるクラス類似性を用いたドメイン適応
- Authors: Han Zhu, Jiangjiang Zhao, Yuling Ren, Li Wang, Pengyuan Zhang
- Abstract要約: 本稿では,クラス類似性を用いたディープニューラルネットワーク(DNN)音響モデルの新しい適応法を提案する。
実験の結果, アクセントと雑音適応の両タスクにおいて, ワンホットラベルを用いた微調整よりも優れていた。
- 参考スコア(独自算出の注目度): 24.951852740214413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When only limited target domain data is available, domain adaptation could be
used to promote performance of deep neural network (DNN) acoustic model by
leveraging well-trained source model and target domain data. However, suffering
from domain mismatch and data sparsity, domain adaptation is very challenging.
This paper proposes a novel adaptation method for DNN acoustic model using
class similarity. Since the output distribution of DNN model contains the
knowledge of similarity among classes, which is applicable to both source and
target domain, it could be transferred from source to target model for the
performance improvement. In our approach, we first compute the frame level
posterior probabilities of source samples using source model. Then, for each
class, probabilities of this class are used to compute a mean vector, which we
refer to as mean soft labels. During adaptation, these mean soft labels are
used in a regularization term to train the target model. Experiments showed
that our approach outperforms fine-tuning using one-hot labels on both accent
and noise adaptation task, especially when source and target domain are highly
mismatched.
- Abstract(参考訳): 限られた対象領域データしか利用できない場合、よく訓練されたソースモデルと対象領域データを活用することで、ディープニューラルネットワーク(dnn)音響モデルのパフォーマンスを促進するためにドメイン適応が使用できる。
しかし、ドメインミスマッチやデータの分散に苦しむドメイン適応は非常に難しい。
本稿では,クラス類似度を用いたDNN音響モデルの新しい適応法を提案する。
DNNモデルの出力分布は、ソースドメインとターゲットドメインの両方に適用可能なクラス間の類似性の知識を含んでいるため、性能改善のためにソースからターゲットモデルに転送することができる。
提案手法では,まずソースモデルを用いて,ソースサンプルのフレームレベル後部確率を計算する。
そして、各クラスに対して、このクラスの確率を用いて平均ベクトルを計算し、これを平均ソフトラベルと呼ぶ。
適応中、これらの平均ソフトラベルは、ターゲットモデルを訓練するために正規化用語で使用される。
実験により, アクセントと雑音適応の両タスクにおいて, 1ホットラベルを用いた微調整では, 特にソース領域とターゲット領域が高度に一致していない場合, 精度が向上することがわかった。
関連論文リスト
- De-Confusing Pseudo-Labels in Source-Free Domain Adaptation [14.954662088592762]
ソースのないドメイン適応は、ソースデータにアクセスすることなく、未ラベルのターゲットドメインにソース訓練されたモデルを適用することを目的としている。
本稿では,ドメイン適応設定における雑音分布に対処するための新しいノイズ学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-03T10:07:11Z) - Robust Target Training for Multi-Source Domain Adaptation [110.77704026569499]
両レベル最適化に基づく新しいMSDAのためのロバスト目標訓練法(BORT$2$)を提案する。
提案手法は,大規模なDomainNetデータセットを含む3つのMSDAベンチマークにおいて,アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2022-10-04T15:20:01Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Domain Impression: A Source Data Free Domain Adaptation Method [27.19677042654432]
教師なしドメイン適応法は、ソースデータセットがすべてのラベルで利用可能であると仮定して、ラベルなしのターゲットセットの適応問題を解決する。
本稿では,ソースデータを必要としないドメイン適応手法を提案する。
ソースデータの代わりに、ソースデータに基づいてトレーニングされた分類器のみを提供しています。
論文 参考訳(メタデータ) (2021-02-17T19:50:49Z) - Domain Adaptation without Source Data [20.64875162351594]
センシティブな情報を含む可能性のあるソースデータへのアクセスを避けるために、ソースデータフリードメイン適応(SFDA)を導入します。
私たちのキーとなるアイデアは、ソースドメインから事前トレーニングされたモデルを活用し、ターゲットモデルを段階的に自己学習的に更新することです。
我々のPrDAは、ベンチマークデータセットにおける従来のドメイン適応手法よりも優れています。
論文 参考訳(メタデータ) (2020-07-03T07:21:30Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。