論文の概要: RemixIT: Continual self-training of speech enhancement models via
bootstrapped remixing
- arxiv url: http://arxiv.org/abs/2202.08862v1
- Date: Thu, 17 Feb 2022 19:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 00:36:28.472866
- Title: RemixIT: Continual self-training of speech enhancement models via
bootstrapped remixing
- Title(参考訳): RemixIT:ブートストラップリミックスによる音声強調モデルの連続的自己学習
- Authors: Efthymios Tzinis, Yossi Adi, Vamsi Krishna Ithapu, Buye Xu, Paris
Smaragdis, Anurag Kumar
- Abstract要約: RemixITは、単一の独立したドメイン内音声やノイズ波形を必要とせずに、音声強調を自己指導する手法である。
RemixITは任意の分離モデルと組み合わせることができ、半教師なしおよび教師なしのドメイン適応タスクにも適用可能であることを示す。
- 参考スコア(独自算出の注目度): 41.77753005397551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present RemixIT, a simple yet effective selfsupervised method for training
speech enhancement without the need of a single isolated in-domain speech nor a
noise waveform. Our approach overcomes limitations of previous methods which
make them dependent to clean in-domain target signals and thus, sensitive to
any domain mismatch between train and test samples. RemixIT is based on a
continuous self-training scheme in which a pre-trained teacher model on
out-of-domain data infers estimated pseudo-target signals for in-domain
mixtures. Then, by permuting the estimated clean and noise signals and remixing
them together, we generate a new set of bootstrapped mixtures and corresponding
pseudo-targets which are used to train the student network. Vice-versa, the
teacher periodically refines its estimates using the updated parameters of the
latest student models. Experimental results on multiple speech enhancement
datasets and tasks not only show the superiority of our method over prior
approaches but also showcase that RemixIT can be combined with any separation
model as well as be applied towards any semi-supervised and unsupervised domain
adaptation task. Our analysis, paired with empirical evidence, sheds light on
the inside functioning of our self-training scheme wherein the student model
keeps obtaining better performance while observing severely degraded
pseudo-targets.
- Abstract(参考訳): RemixITは、単一の独立したドメイン内音声やノイズ波形を必要とせずに、音声強調を訓練するためのシンプルで効果的な自己教師手法である。
提案手法は, 従来手法の制約を克服し, クリーンなドメイン内ターゲット信号に依存し, 列車とテストサンプル間のドメインミスマッチに敏感に対処する。
RemixITは、ドメイン外のデータに基づく事前訓練された教師モデルが、ドメイン内の混合に対して推定された擬似ターゲット信号を推測する継続的自己学習方式に基づいている。
そして、推定されたクリーン信号とノイズ信号を置換してリミックスすることで、学生ネットワークのトレーニングに使用されるブートストラップ付き混合とそれに対応する擬似ターゲットを新たに生成する。
教師は、最新の学生モデルの更新されたパラメータを使って、定期的に見積もりを洗練する。
複数の音声強調データセットとタスクにおける実験結果は,従来の手法よりも優れた手法を示すだけでなく,任意の分離モデルと組み合わせて,任意の半教師なし・教師なしのドメイン適応タスクに適用できることを示した。
実験的なエビデンスと組み合わせた分析は, 学生モデルが高度に劣化した疑似標的を観察しながら, 良好な性能を保ち続ける自己学習方式の内部機能に光を当てる。
関連論文リスト
- Joint Diffusion models in Continual Learning [4.013156524547073]
共同拡散モデルに基づく生成的リハーサルを用いた連続学習法であるJDCLを紹介する。
生成的再生に基づく連続学習手法は、生成的モデルからサンプリングされた新しいデータとリハーサルデータを組み合わせたモデルの再学習によってこの問題を緩和しようとする。
このような共有パラメトリゼーションと知識蒸留技術を組み合わせることで、破滅的な忘れをせずに新しいタスクに安定した適応ができることを示す。
論文 参考訳(メタデータ) (2024-11-12T22:35:44Z) - Diffusing States and Matching Scores: A New Framework for Imitation Learning [16.941612670582522]
敵対的模倣学習は伝統的に、学習者と敵対的に選択されたコスト関数の間の2つのプレイヤーゼロサムゲームとしてフレーム化されている。
近年、拡散モデルはGANの非敵対的な代替品として出現している。
提案手法は, 様々な連続制御問題に対して, GANスタイルの模倣学習ベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:25Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Continual self-training with bootstrapped remixing for speech
enhancement [32.68203972471562]
RemixITは、音声強調のためのシンプルで斬新な自己教師型訓練手法である。
実験の結果,RemixITは従来の最先端の自己管理手法よりも優れていた。
論文 参考訳(メタデータ) (2021-10-19T16:56:18Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z) - Self-Supervised Contrastive Learning for Unsupervised Phoneme
Segmentation [37.054709598792165]
このモデルは畳み込みニューラルネットワークであり、生波形上で直接動作する。
ノイズコントラスト推定原理を用いて信号のスペクトル変化を同定する。
テスト時には、モデル出力にピーク検出アルゴリズムを適用して最終境界を生成する。
論文 参考訳(メタデータ) (2020-07-27T12:10:21Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。