論文の概要: Unsupervised Audio Source Separation using Generative Priors
- arxiv url: http://arxiv.org/abs/2005.13769v1
- Date: Thu, 28 May 2020 03:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:55:14.360348
- Title: Unsupervised Audio Source Separation using Generative Priors
- Title(参考訳): 生成優先度を用いた教師なし音源分離
- Authors: Vivek Narayanaswamy, Jayaraman J. Thiagarajan, Rushil Anirudh and
Andreas Spanias
- Abstract要約: そこで本研究では,個々の音源から学習した生成的事前情報に基づく音源分離手法を提案する。
提案手法では,ソース固有の潜在空間を同時に探索し,構成源を効果的に回収する。
- 参考スコア(独自算出の注目度): 43.35195236159189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art under-determined audio source separation systems rely on
supervised end-end training of carefully tailored neural network architectures
operating either in the time or the spectral domain. However, these methods are
severely challenged in terms of requiring access to expensive source level
labeled data and being specific to a given set of sources and the mixing
process, which demands complete re-training when those assumptions change. This
strongly emphasizes the need for unsupervised methods that can leverage the
recent advances in data-driven modeling, and compensate for the lack of labeled
data through meaningful priors. To this end, we propose a novel approach for
audio source separation based on generative priors trained on individual
sources. Through the use of projected gradient descent optimization, our
approach simultaneously searches in the source-specific latent spaces to
effectively recover the constituent sources. Though the generative priors can
be defined in the time domain directly, e.g. WaveGAN, we find that using
spectral domain loss functions for our optimization leads to good-quality
source estimates. Our empirical studies on standard spoken digit and instrument
datasets clearly demonstrate the effectiveness of our approach over classical
as well as state-of-the-art unsupervised baselines.
- Abstract(参考訳): 最先端の未決定のオーディオソース分離システムは、時間領域とスペクトル領域の両方で動作する注意深く調整されたニューラルネットワークアーキテクチャの教師付きエンドツーエンドトレーニングに依存している。
しかし、これらの手法は、高価なソースレベルのラベル付きデータにアクセスし、与えられたソースセットと、それらの仮定が変化したときの完全な再トレーニングを必要とする混合プロセスに特化する必要があるという点で、厳しい課題を抱えている。
これは、データ駆動モデリングの最近の進歩を活用し、有意義な事前によってラベル付きデータの欠如を補償できる教師なしメソッドの必要性を強く強調する。
そこで本研究では,個々の音源で学習した生成前処理に基づく音源分離手法を提案する。
提案手法は,予測勾配勾配勾配最適化を用いて,ソース固有の潜在空間を同時に探索し,構成源を効率的に回収する。
生成前駆体は、例えばWaveGANのように時間領域で直接定義することができるが、最適化のためにスペクトル領域損失関数を用いることで、良質なソース推定が得られる。
標準音声桁と計器データセットに関する実証研究は、古典的および最先端の教師なしベースラインに対する我々のアプローチの有効性を明らかに示している。
関連論文リスト
- Semi-Blind Source Separation with Learned Constraints [1.2891210250935146]
ブラインドソース分離 (BSS) アルゴリズムは、ハイパースペクトルデータ解析のための教師なしの手法である。
本稿では,予測された最小二乗アルゴリズムと学習に基づく正規化スキームを組み合わせた半教師付きソース分離手法について検討する。
これにより、物理的に解釈可能な解を提供する精度が向上し、革新的なBSSアルゴリズムが実現できることが示される。
論文 参考訳(メタデータ) (2022-09-27T17:58:23Z) - Exploiting Temporal Structures of Cyclostationary Signals for
Data-Driven Single-Channel Source Separation [98.95383921866096]
単一チャネルソース分離(SCSS)の問題点について検討する。
我々は、様々なアプリケーション領域に特に適するサイクロ定常信号に焦点を当てる。
本稿では,最小MSE推定器と競合するU-Netアーキテクチャを用いたディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T14:04:56Z) - Iterative Sound Source Localization for Unknown Number of Sources [57.006589498243336]
終端基準を満たすまで、各音源のDOAをしきい値なしで反復的に抽出できるISSLと呼ばれる反復音源定位手法を提案する。
我々のISSLは、既存のしきい値ベースのアルゴリズムと比較して、DOA推定とソース番号検出の両方で大幅な性能改善を実現しています。
論文 参考訳(メタデータ) (2022-06-24T13:19:44Z) - Unsupervised Audio Source Separation Using Differentiable Parametric
Source Models [8.80867379881193]
本研究では,教師なしモデルに基づく深層学習手法を提案する。
ニューラルネットワークは、観測された混合物をソースの和として再構成するように訓練される。
音声アンサンブル分離タスクの実験評価により,提案手法が学習自由法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-24T11:05:30Z) - Unsupervised Source Separation via Bayesian Inference in the Latent
Domain [4.583433328833251]
最先端のオーディオソース分離モデルは、教師付きデータ駆動アプローチに依存している。
本稿では,時間領域信号の潜在表現を直接操作する,単純で効果的な非教師付き分離アルゴリズムを提案する。
Slakh データセット arXiv:1909.08494 に対する我々のアプローチを検証する。
論文 参考訳(メタデータ) (2021-10-11T14:32:55Z) - PriorGrad: Improving Conditional Denoising Diffusion Models with
Data-Driven Adaptive Prior [103.00403682863427]
条件拡散モデルの効率を改善するために, PreGrad を提案する。
PriorGradはデータとパラメータの効率を向上し、品質を向上する。
論文 参考訳(メタデータ) (2021-06-11T14:04:03Z) - Unsupervised Multi-source Domain Adaptation Without Access to Source
Data [58.551861130011886]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインから知識を転送することで、ラベル付きドメインの予測モデルを学ぶことを目的としている。
本稿では,ソースモデルと適切な重み付けを自動的に組み合わせ,少なくとも最良のソースモデルと同等の性能を発揮する新しい効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-05T10:45:12Z) - Universal Source-Free Domain Adaptation [57.37520645827318]
ドメイン適応のための新しい2段階学習プロセスを提案する。
Procurementの段階では、今後のカテゴリギャップやドメインシフトに関する事前知識を前提とせず、将来的なソースフリーデプロイメントのためのモデルの提供を目標としています。
Deploymentの段階では、幅広いカテゴリギャップをまたいで動作可能な統一適応アルゴリズムを設計することを目的としている。
論文 参考訳(メタデータ) (2020-04-09T07:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。