論文の概要: Generalized Fast Multichannel Nonnegative Matrix Factorization Based on
Gaussian Scale Mixtures for Blind Source Separation
- arxiv url: http://arxiv.org/abs/2205.05330v1
- Date: Wed, 11 May 2022 08:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 20:54:32.416390
- Title: Generalized Fast Multichannel Nonnegative Matrix Factorization Based on
Gaussian Scale Mixtures for Blind Source Separation
- Title(参考訳): ブラインド音源分離のためのガウススケール混合に基づく一般化高速マルチチャネル非負行列分解
- Authors: Mathieu Fontaine (LTCI, RIKEN AIP), Kouhei Sekiguchi (RIKEN AIP),
Aditya Nugraha (RIKEN AIP), Yoshiaki Bando (AIST, RIKEN AIP), Kazuyoshi
Yoshii (RIKEN AIP)
- Abstract要約: 本稿では,FastMNMFと呼ばれる多目的ブラインドソース分離手法のヘビーテール拡張について述べる。
インパルス変数の確率密度関数が解析式を持たない場合でも動作する予測最大化アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 3.141085922386211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes heavy-tailed extensions of a state-of-the-art versatile
blind source separation method called fast multichannel nonnegative matrix
factorization (FastMNMF) from a unified point of view. The common way of
deriving such an extension is to replace the multivariate complex Gaussian
distribution in the likelihood function with its heavy-tailed generalization,
e.g., the multivariate complex Student's t and leptokurtic generalized Gaussian
distributions, and tailor-make the corresponding parameter optimization
algorithm. Using a wider class of heavy-tailed distributions called a Gaussian
scale mixture (GSM), i.e., a mixture of Gaussian distributions whose variances
are perturbed by positive random scalars called impulse variables, we propose
GSM-FastMNMF and develop an expectationmaximization algorithm that works even
when the probability density function of the impulse variables have no
analytical expressions. We show that existing heavy-tailed FastMNMF extensions
are instances of GSM-FastMNMF and derive a new instance based on the
generalized hyperbolic distribution that include the normal-inverse Gaussian,
Student's t, and Gaussian distributions as the special cases. Our experiments
show that the normalinverse Gaussian FastMNMF outperforms the state-of-the-art
FastMNMF extensions and ILRMA model in speech enhancement and separation in
terms of the signal-to-distortion ratio.
- Abstract(参考訳): 本稿では,高速多チャンネル非負行列分解(fast multichannel non negative matrix factorization, fastmnmf)と呼ばれる,最先端の多彩なブラインド音源分離法の拡張について,統一的な視点から述べる。
そのような拡張を導出する一般的な方法は、確率関数の多変量複素ガウス分布をその重尾一般化(例えば、多変量複素ガウス分布 t とレプトルティック一般化ガウス分布)に置き換え、対応するパラメータ最適化アルゴリズムをテーラーメイクすることである。
ガウススケール混合(gsm)と呼ばれるより広いクラス、すなわち、分散が正のランダムスカラー(インパルス変数)によって摂動されるガウス分布の混合物を用いて、gsm-fastmnmfを提案し、インパルス変数の確率密度関数が解析式を持たない場合でも、期待最大化アルゴリズムを開発する。
既存の重み付きfastmnmf拡張はgsm-fastmnmfのインスタンスであり、正規逆ガウス分布、学生 t およびガウス分布を含む一般化双曲型分布に基づく新しいインスタンスを特殊ケースとして導出する。
実験の結果, 正規逆ガウスのFastMNMFは, 音声強調と分離において, 最先端のFastMNMF拡張およびIRRMAモデルよりも高い性能を示した。
関連論文リスト
- Convex Parameter Estimation of Perturbed Multivariate Generalized
Gaussian Distributions [18.95928707619676]
本稿では,MGGDパラメータの確立された特性を持つ凸定式化を提案する。
提案するフレームワークは, 精度行列, 平均, 摂動の様々な正規化を組み合わせ, 柔軟である。
実験により, 平均ベクトルパラメータに対して, 同様の性能でより正確な精度と共分散行列推定を行うことができた。
論文 参考訳(メタデータ) (2023-12-12T18:08:04Z) - On the Computation of the Gaussian Rate-Distortion-Perception Function [10.564071872770146]
平均二乗誤差(MSE)歪み下における多変量ガウス音源に対するレート歪み知覚関数(RDPF)の計算について検討した。
我々は、関連するアルゴリズムの実現、および収束と収束のキャラクタリゼーションの速度を提供する。
計算結果を数値シミュレーションで相関させ,既存の結果に関連付ける。
論文 参考訳(メタデータ) (2023-11-15T18:34:03Z) - Adaptive Annealed Importance Sampling with Constant Rate Progress [68.8204255655161]
Annealed Importance Smpling (AIS)は、抽出可能な分布から重み付けされたサンプルを合成する。
本稿では,alpha$-divergencesに対する定数レートAISアルゴリズムとその効率的な実装を提案する。
論文 参考訳(メタデータ) (2023-06-27T08:15:28Z) - Approximate Message Passing for Multi-Layer Estimation in Rotationally
Invariant Models [15.605031496980775]
我々は、AMPアルゴリズムのクラスを新たに提案し、状態の進化を再現する。
以上の結果から,この複雑性の増大はアルゴリズムの性能においてほとんど,あるいは全くコストがかからないことが示唆された。
論文 参考訳(メタデータ) (2022-12-03T08:10:35Z) - Generalizing Gaussian Smoothing for Random Search [23.381986209234164]
ガウススムースティング(英: Gaussian smoothing、GS)は、現在のベンチマークの摂動を用いて対象の勾配を推定する微分自由最適化アルゴリズムである。
そこで本研究では,MSEが比較的小さいような分布の誤差を最小限に抑えた摂動分布を選択することを提案する。
論文 参考訳(メタデータ) (2022-11-27T04:42:05Z) - Stochastic Mirror Descent in Average Ensemble Models [38.38572705720122]
ミラー降下 (SMD) はトレーニングアルゴリズムの一般的なクラスであり、特別な場合として、祝い勾配降下 (SGD) を含む。
本稿では,平均場アンサンブルモデルにおけるミラーポテンシャルアルゴリズムの性能について検討する。
論文 参考訳(メタデータ) (2022-10-27T11:04:00Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Training Deep Energy-Based Models with f-Divergence Minimization [113.97274898282343]
深部エネルギーベースモデル(EBM)は分布パラメトリゼーションにおいて非常に柔軟であるが、計算的に困難である。
所望のf偏差を用いてEMMを訓練するための、f-EBMと呼ばれる一般的な変分フレームワークを提案する。
実験の結果,F-EBMは対照的なばらつきよりも優れており,KL以外のf-divergencesを用いたEBMの訓練の利点も示された。
論文 参考訳(メタデータ) (2020-03-06T23:11:13Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。