論文の概要: Deep generative demixing: Recovering Lipschitz signals from noisy
subgaussian mixtures
- arxiv url: http://arxiv.org/abs/2010.06652v1
- Date: Tue, 13 Oct 2020 19:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:40:15.301189
- Title: Deep generative demixing: Recovering Lipschitz signals from noisy
subgaussian mixtures
- Title(参考訳): 深部生成脱混合:ノイズサブガウシアン混合物からのリプシッツ信号の回復
- Authors: Aaron Berk
- Abstract要約: 生成ネットワーク(GNN)は,自然画像の内在的低次元構造を効果的に捉えたことで有名になった。
本稿では,2つのリプシッツ信号に対する部分ガウスデミックス問題について検討し,GNNデミックスを特例とした。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative neural networks (GNNs) have gained renown for efficaciously
capturing intrinsic low-dimensional structure in natural images. Here, we
investigate the subgaussian demixing problem for two Lipschitz signals, with
GNN demixing as a special case. In demixing, one seeks identification of two
signals given their sum and prior structural information. Here, we assume each
signal lies in the range of a Lipschitz function, which includes many popular
GNNs as a special case. We prove a sample complexity bound for nearly optimal
recovery error that extends a recent result of Bora, et al. (2017) from the
compressed sensing setting with gaussian matrices to demixing with subgaussian
ones. Under a linear signal model in which the signals lie in convex sets,
McCoy & Tropp (2014) have characterized the sample complexity for
identification under subgaussian mixing. In the present setting, the signal
structure need not be convex. For example, our result applies to a domain that
is a non-convex union of convex cones. We support the efficacy of this demixing
model with numerical simulations using trained GNNs, suggesting an algorithm
that would be an interesting object of further theoretical study.
- Abstract(参考訳): 自然画像における本質的低次元構造を効果的に捉えるために、ジェネレーティブニューラルネットワーク(gnn)が認知されている。
本稿では,2つのリプシッツ信号に対する部分ガウシアンデミキシング問題について,gnnデミキシングを特別な場合として検討する。
デミックスでは、2つの信号の和と以前の構造情報を識別する。
ここでは、各信号がリプシッツ関数の範囲内にあると仮定する。
ガウス行列を用いた圧縮センシングから亜ガウス行列によるデミックスまで,Bora, et al. (2017) の最近の結果を拡張した,ほぼ最適回復誤差のサンプル複雑性を証明した。
信号が凸集合にある線形信号モデルの下で、mccoy & tropp (2014) はサブガウス混合下での同定のためのサンプルの複雑さを特徴付ける。
現在の設定では、信号構造は凸である必要はない。
例えば、この結果は凸錐の非凸結合である領域に適用できる。
我々は,この混合モデルの有効性を,gnnを用いた数値シミュレーションで支持し,今後の理論研究の興味深い対象となるアルゴリズムを提案する。
関連論文リスト
- Learning Mixtures of Gaussians Using Diffusion Models [9.118706387430883]
テレビエラーに対して$k$ Gaussiansの混合を学習するための新しいアルゴリズムを提案する。
我々のアプローチは解析的であり、拡散モデルの枠組みに依存している。
論文 参考訳(メタデータ) (2024-04-29T17:00:20Z) - Model-adapted Fourier sampling for generative compressed sensing [7.130302992490975]
測定行列が一意行列からランダムにサブサンプリングされたとき, 生成的圧縮センシングについて検討した。
我々は,textitO(kd| boldsymbolalpha|_22)$の測定精度を改良したモデル適応サンプリング戦略を構築した。
論文 参考訳(メタデータ) (2023-10-08T03:13:16Z) - Optimal Algorithms for the Inhomogeneous Spiked Wigner Model [89.1371983413931]
不均一な問題に対する近似メッセージパッシングアルゴリズム(AMP)を導出する。
特に,情報理論の閾値よりも大きい信号と雑音の比を必要とする既知のアルゴリズムが,ランダムよりも優れた処理を行うための統計的・計算的ギャップの存在を同定する。
論文 参考訳(メタデータ) (2023-02-13T19:57:17Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Hidden Convexity of Wasserstein GANs: Interpretable Generative Models
with Closed-Form Solutions [31.952858521063277]
凸双対レンズを用いた2層ニューラルネットワーク判別器によるワッサースタインGANの影響を解析した。
さらに、識別器の異なる活性化機能のパワーを実証する。
論文 参考訳(メタデータ) (2021-07-12T18:33:49Z) - A Unified View of Stochastic Hamiltonian Sampling [18.300078015845262]
この研究は、後続サンプリングのためのハミルトン微分方程式(SDE)の理論的性質を再考する。
数値SDEシミュレーションから生じる2種類の誤差について検討し, 離散化誤差と雑音勾配推定による誤差について検討した。
論文 参考訳(メタデータ) (2021-06-30T16:50:11Z) - SNIPS: Solving Noisy Inverse Problems Stochastically [25.567566997688044]
本稿では,線形逆問題の後部分布からサンプルを抽出するSNIPSアルゴリズムを提案する。
我々の解はランゲヴィン力学とニュートン法からのアイデアを取り入れ、事前訓練された最小二乗誤差(MMSE)を利用する。
得られたサンプルは、与えられた測定値と鋭く、詳細で一致しており、それらの多様性は、解決される逆問題に固有の不確実性を明らかにする。
論文 参考訳(メタデータ) (2021-05-31T13:33:21Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - The Generalized Lasso with Nonlinear Observations and Generative Priors [63.541900026673055]
我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
論文 参考訳(メタデータ) (2020-06-22T16:43:35Z) - Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable
Embeddings with Generative Priors [52.06292503723978]
生成モデルを用いた圧縮センシングの進歩により, 生成モデルを用いた1ビット圧縮センシングの問題点を考察した。
まずノイズのない1ビット測定を考察し, ガウス測度に基づく近似回復のためのサンプル複雑性境界を提供する。
また,リプシッツ連続生成モデルを用いた1ビット圧縮センシングにも有効であることを示すため,評価誤差と雑音に対する再構成の堅牢性を示すBinary $epsilon$-Stable Embedding特性を実証した。
論文 参考訳(メタデータ) (2020-02-05T09:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。