論文の概要: Unsupervised Source Separation via Self-Supervised Training
- arxiv url: http://arxiv.org/abs/2202.03875v1
- Date: Tue, 8 Feb 2022 14:02:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 16:12:29.445363
- Title: Unsupervised Source Separation via Self-Supervised Training
- Title(参考訳): 自己監督訓練による教師なし音源分離
- Authors: Ertu\u{g} Karamatl{\i}, Serap K{\i}rb{\i}z
- Abstract要約: 単一チャネルの2音源混合音声からの自己教師付き訓練を含む2つの新しい非教師付き音源分離手法を提案する。
最初の方法は、置換不変性トレーニング(PIT)を用いて、人工的に生成した混合物を元の混合物に分離する。
我々は、この最初の方法を改善するために、ソース推定の混合物を作成し、PITを用いてこれらの新しい混合物を循環的に分離する。
私たちは、MixPITが私たちの小さなデータセット(SC09Mix)で共通のベースライン(MixIT)より優れており、標準データセット(LibriMix)で同等のパフォーマンスを持つことを示す。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce two novel unsupervised (blind) source separation methods, which
involve self-supervised training from single-channel two-source speech mixtures
without any access to the ground truth source signals. Our first method employs
permutation invariant training (PIT) to separate artificially-generated
mixtures of the original mixtures back into the original mixtures, which we
named mixture permutation invariant training (MixPIT). We found this
challenging objective to be a valid proxy task for learning to separate the
underlying sources. We improve upon this first method by creating mixtures of
source estimates and employing PIT to separate these new mixtures in a cyclic
fashion. We named this second method cyclic mixture permutation invariant
training (MixCycle), where cyclic refers to the fact that we use the same model
to produce artificial mixtures and to learn from them continuously. We show
that MixPIT outperforms a common baseline (MixIT) on our small dataset
(SC09Mix), and they have comparable performance on a standard dataset
(LibriMix). Strikingly, we also show that MixCycle surpasses the performance of
supervised PIT by being data-efficient, thanks to its inherent data
augmentation mechanism. To the best of our knowledge, no other purely
unsupervised method is able to match or exceed the performance of supervised
training.
- Abstract(参考訳): そこで本研究では,単チャネル2音源混合音声からの自己教師あり学習を含む2つの非教師なし(blind)音源分離法を提案する。
最初の方法は、置換不変性トレーニング(PIT)を用いて、元の混合物を人工的に生成した混合物を元の混合物に分離し、混合置換不変性トレーニング(MixPIT)と名付けた。
私たちは、この難しい目標が、基礎となるソースを分離する学習のための有効なプロキシタスクであることに気付きました。
ソース推定の混合物を作成し、pitを用いてこれら新しい混合物を循環的に分離することで、この第1の方法を改善する。
第2の方法である巡回混合置換不変トレーニング(mixcycle)と命名し、循環は、同じモデルを使って人工混合を生成し、それらを連続的に学習するという事実を指す。
MixPITは私たちの小さなデータセット(SC09Mix)で共通のベースライン(MixIT)を上回り、標準データセット(LibriMix)で同等のパフォーマンスを持つことを示す。
驚くべきことに、mixcycleは固有のデータ拡張機構のおかげで、データ効率によって教師付きピットのパフォーマンスを上回っている。
我々の知る限りでは、教師なしの方法以外、教師なしの訓練のパフォーマンスにマッチまたは超えるものはない。
関連論文リスト
- Data Mixing Laws: Optimizing Data Mixtures by Predicting Language Modeling Performance [55.872926690722714]
本研究では,関数形式の混合比に関するモデル性能の予測可能性について検討する。
トレーニングステップのスケーリング法則,モデルサイズ,データ混合法則のネスト利用を提案する。
提案手法は,RedPajamaにおける100Bトークンをトレーニングした1Bモデルのトレーニング混合物を効果的に最適化する。
論文 参考訳(メタデータ) (2024-03-25T17:14:00Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - DP-Mix: Mixup-based Data Augmentation for Differentially Private
Learning [10.971246386083884]
本稿では,差分学習の制約に特化して設計された2つの新しいデータ拡張手法を提案する。
我々の最初のテクニックであるDP-Mix_Selfは、自己拡張データにミキサアップを施すことにより、さまざまなデータセットと設定にわたるSoTA分類性能を達成する。
第2の手法であるDP-Mix_Diffは、事前学習した拡散モデルから合成データを混合プロセスに組み込むことにより、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-11-02T15:12:12Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Expeditious Saliency-guided Mix-up through Random Gradient Thresholding [89.59134648542042]
混合学習アプローチはディープニューラルネットワークの一般化能力向上に有効であることが証明されている。
本稿では,両経路の分岐点に位置する新しい手法を提案する。
我々はR-Mixという手法を「Random Mix-up」という概念にちなむ。
より良い意思決定プロトコルが存在するかどうかという問題に対処するために、我々は、ミックスアップポリシーを決定する強化学習エージェントを訓練する。
論文 参考訳(メタデータ) (2022-12-09T14:29:57Z) - Diffusion-based Generative Speech Source Separation [27.928990101986862]
微分方程式(SDE)のスコアマッチングに基づく新しい単一チャネルソース分離法であるDiffSepを提案する。
WSJ0 2mixデータセットの実験では、メソッドの可能性が示されています。
この手法は音声強調にも適しており,VoiceBank-DEMANDデータセットの先行処理と競合する性能を示す。
論文 参考訳(メタデータ) (2022-10-31T13:46:55Z) - Continual self-training with bootstrapped remixing for speech
enhancement [32.68203972471562]
RemixITは、音声強調のためのシンプルで斬新な自己教師型訓練手法である。
実験の結果,RemixITは従来の最先端の自己管理手法よりも優れていた。
論文 参考訳(メタデータ) (2021-10-19T16:56:18Z) - Teacher-Student MixIT for Unsupervised and Semi-supervised Speech
Separation [27.19635746008699]
エンド・ツー・エンド音声分離のための新しい半教師付き学習フレームワークを提案する。
提案手法はまず,教師モデルを訓練するために,未分離音源と混合不変訓練基準の混合を用いる。
単一チャネルと複数チャネルの混合実験により,教師と学生の学習がオーバーセパレーションの問題を解決することを示した。
論文 参考訳(メタデータ) (2021-06-15T02:26:42Z) - Thompson Sampling with a Mixture Prior [59.211830005673896]
混合分布から不確実な環境をサンプリングするオンライン意思決定問題において,トンプソンサンプリング(TS)について検討した。
我々は,TSの後悔を先行して解析する,新しい一般的な手法を開発した。
論文 参考訳(メタデータ) (2021-06-10T09:21:07Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - Unsupervised Sound Separation Using Mixture Invariant Training [38.0680944898427]
音声分離における教師あり手法と比較して,MixITは競争性能を向上できることを示す。
特に,残響混合を組み込むことで残響分離性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-06-23T02:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。