論文の概要: Approximate message passing from random initialization with applications
to $\mathbb{Z}_{2}$ synchronization
- arxiv url: http://arxiv.org/abs/2302.03682v1
- Date: Tue, 7 Feb 2023 18:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 15:12:13.499803
- Title: Approximate message passing from random initialization with applications
to $\mathbb{Z}_{2}$ synchronization
- Title(参考訳): ランダム初期化からの近似メッセージパッシングと$\mathbb{Z}_{2}$同期への応用
- Authors: Gen Li, Wei Fan, Yuting Wei
- Abstract要約: 本稿では,未知のランク1行列を先行構造情報で再構成する問題について考察する。
我々は,このモデルでアポキシマトメッセージパッシング(AMP)の非同化的特徴を初めて提供する。
- 参考スコア(独自算出の注目度): 25.511475484340156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper is concerned with the problem of reconstructing an unknown
rank-one matrix with prior structural information from noisy observations.
While computing the Bayes-optimal estimator seems intractable in general due to
its nonconvex nature, Approximate Message Passing (AMP) emerges as an efficient
first-order method to approximate the Bayes-optimal estimator. However, the
theoretical underpinnings of AMP remain largely unavailable when it starts from
random initialization, a scheme of critical practical utility. Focusing on a
prototypical model called $\mathbb{Z}_{2}$ synchronization, we characterize the
finite-sample dynamics of AMP from random initialization, uncovering its rapid
global convergence. Our theory provides the first non-asymptotic
characterization of AMP in this model without requiring either an informative
initialization (e.g., spectral initialization) or sample splitting.
- Abstract(参考訳): 本稿では,未知のランク1行列をノイズ観測による事前構造情報で再構成する問題について考察する。
ベイズ最適推定器の計算は、非凸性のため、一般には難解に思えるが、近似メッセージパッシング(AMP)はベイズ最適推定器を近似する効率的な一階法として現れる。
しかし、AMPの理論的基盤は、ランダムな初期化から始まり、重要な実用性のスキームにおいて、ほとんど利用できないままである。
原型モデルである $\mathbb{Z}_{2}$ 同期に着目し、乱数初期化からAMPの有限サンプル力学を特徴づけ、その急速な大域収束を明らかにする。
我々の理論は、情報的初期化(例えばスペクトル初期化)やサンプル分割を必要とすることなく、このモデルでAMPの非漸近的特徴を与える。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - A non-asymptotic distributional theory of approximate message passing
for sparse and robust regression [20.830017611900832]
本稿では、近似メッセージパッシング(AMP)のための非漸近分布特性について述べる。
AMPは、高速な推定器と強力な理論機械の両方として有効であることを示す反復アルゴリズムのファミリーである。
論文 参考訳(メタデータ) (2024-01-08T14:34:35Z) - Restoration-Degradation Beyond Linear Diffusions: A Non-Asymptotic
Analysis For DDIM-Type Samplers [90.45898746733397]
本研究では拡散生成モデルに用いる決定論的サンプリング器の非漸近解析のためのフレームワークを開発する。
確率フローODEに沿った1ステップは,1) 条件付き対数線上を無限に先行して上昇する回復ステップ,2) 雑音を現在の勾配に向けて前向きに進行する劣化ステップの2段階で表すことができる。
論文 参考訳(メタデータ) (2023-03-06T18:59:19Z) - Optimal Algorithms for the Inhomogeneous Spiked Wigner Model [89.1371983413931]
不均一な問題に対する近似メッセージパッシングアルゴリズム(AMP)を導出する。
特に,情報理論の閾値よりも大きい信号と雑音の比を必要とする既知のアルゴリズムが,ランダムよりも優れた処理を行うための統計的・計算的ギャップの存在を同定する。
論文 参考訳(メタデータ) (2023-02-13T19:57:17Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - A Non-Asymptotic Framework for Approximate Message Passing in Spiked
Models [24.786030482013437]
近似メッセージパッシング(AMP)は高次元統計問題を解くための効果的な反復パラダイムとして現れる。
それまでのAMP理論は、反復の数が$obig(fraclog nloglog nbig)$を超えると、AMP力学を予測できなかった。
本稿では,スパイク行列推定におけるAMP理解のための非漸近的枠組みを開発する。
論文 参考訳(メタデータ) (2022-08-05T17:59:06Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - PCA Initialization for Approximate Message Passing in Rotationally
Invariant Models [29.039655256171088]
主成分分析は自然推定器であり、その性能は高次元状態において急激な結果が得られた。
近年,PCAの精度を向上させる可能性のある代替推定器として,AMPアルゴリズムが提案されている。
そこで本研究では,AMPをPCAに初期化する2つの手法を組み合わせて,この推定器の性能を厳密に評価する手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T09:13:51Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Approximate Message Passing with Spectral Initialization for Generalized
Linear Models [35.618694363241744]
我々は、近似メッセージパッシング(AMP)に基づく推定器に焦点を当てる。
スペクトル推定器を用いたAMPアルゴリズムを提案する。
また,提案手法の有効性を示す数値的な結果も提供する。
論文 参考訳(メタデータ) (2020-10-07T14:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。