論文の概要: Memory Approximate Message Passing
- arxiv url: http://arxiv.org/abs/2012.10861v2
- Date: Wed, 10 Feb 2021 14:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:44:11.614167
- Title: Memory Approximate Message Passing
- Title(参考訳): Memory Approximate Message Passing
- Authors: Lei Liu, Shunqi Huang and Brian M. Kurkoski
- Abstract要約: 近似メッセージパッシング(amp)は低コスト反復パラメータ推定手法である。
本稿では,一元不変行列に対する低複素メモリAMP(MAMP)を提案する。
- 参考スコア(独自算出の注目度): 9.116196799517262
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Approximate message passing (AMP) is a low-cost iterative
parameter-estimation technique for certain high-dimensional linear systems with
non-Gaussian distributions. However, AMP only applies to the independent
identically distributed (IID) transform matrices, but may become unreliable
(e.g. perform poorly or even diverge) for other matrix ensembles, especially
for ill-conditioned ones. To handle this difficulty, orthogonal/vector AMP
(OAMP/VAMP) was proposed for general bi-unitarily-invariant matrices. However,
the Bayes-optimal OAMP/VAMP requires high-complexity linear minimum mean square
error (MMSE) estimator. This limits the application of OAMP/VAMP to large-scale
systems.
To solve the disadvantages of AMP and OAMP/VAMP, this paper proposes a
low-complexity memory AMP (MAMP) for unitarily-invariant matrices. MAMP is
consisted of an orthogonal non-linear estimator (NLE) for denoising (same as
OAMP/VAMP), and an orthogonal long-memory matched filter (MF) for interference
suppression. Orthogonal principle is used to guarantee the asymptotic
Gaussianity of estimation errors in MAMP. A state evolution is derived to
asymptotically characterize the performance of MAMP. The relaxation parameters
and damping vector in MAMP are analytically optimized based on the state
evolution to guarantee and improve the convergence. MAMP has comparable
complexity to AMP. Furthermore, for all unitarily-invariant matrices, the
optimized MAMP converges to the high-complexity OAMP/VAMP, and thus is
Bayes-optimal if it has a unique fixed point. Finally, simulations are provided
to verify the validity and accuracy of the theoretical results.
- Abstract(参考訳): 近似メッセージパッシング(AMP)は、ガウス分布のない高次元線形系の低コスト反復パラメータ推定手法である。
しかし、AMPは独立に分布する(IID)変換行列にのみ適用されるが、信頼できない(例えば)。
他のマトリクスアンサンブル、特に不調なアンサンブルに対して、貧弱なまたは分岐する)
この困難に対処するため、直交ベクトルAMP (OAMP/VAMP) が一般的な二単位不変行列に対して提案された。
しかし、ベイズ最適OAMP/VAMPは、高複素性線形平均二乗誤差(MMSE)推定器を必要とする。
これにより、大規模システムへのOAMP/VAMPの適用が制限される。
本稿では,AMP と OAMP/VAMP の欠点を解決するために,一様不変行列に対する低複雑性メモリ AMP (MAMP) を提案する。
MAMPは直交非線形推定器(NLE)と干渉抑制のための直交長メモリマッチングフィルタ(MF)から構成される。
直交原理は、マンプにおける推定誤差の漸近ガウス性を保証するために用いられる。
状態進化は、MAMPの性能を漸近的に特徴づけるために導かれる。
MAMPの緩和パラメータと減衰ベクトルは、状態進化に基づいて解析的に最適化され、収束が保証され改善される。
MAMPはAMPと同等の複雑さを持つ。
さらに、すべてのユニタリ不変行列に対して、最適化された MAMP は高複素度 OAMP/VAMP に収束し、一意な不動点を持つならベイズ最適である。
最後に,理論結果の妥当性と正確性を検証するためにシミュレーションを行った。
関連論文リスト
- Optimal Algorithms for the Inhomogeneous Spiked Wigner Model [89.1371983413931]
不均一な問題に対する近似メッセージパッシングアルゴリズム(AMP)を導出する。
特に,情報理論の閾値よりも大きい信号と雑音の比を必要とする既知のアルゴリズムが,ランダムよりも優れた処理を行うための統計的・計算的ギャップの存在を同定する。
論文 参考訳(メタデータ) (2023-02-13T19:57:17Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Unitary Approximate Message Passing for Matrix Factorization [90.84906091118084]
行列分解 (MF) を一定の制約で考慮し, 様々な分野の応用を見いだす。
我々は,効率の良いメッセージパッシング実装であるUAMPMFを用いて,MFに対するベイズ的アプローチを開発する。
UAMPMFは、回復精度、ロバスト性、計算複雑性の観点から、最先端のアルゴリズムを著しく上回ることを示す。
論文 参考訳(メタデータ) (2022-07-31T12:09:32Z) - Sufficient Statistic Memory Approximate Message Passing [5.708490209087275]
AMP型アルゴリズムの重要な特徴は、それらの力学が状態進化によって正しく記述できることである。
本稿では,十分な統計条件下でのメモリAMP(MAMP)を提案する。
論文 参考訳(メタデータ) (2022-06-23T13:06:00Z) - Sufficient-Statistic Memory AMP [12.579567275436343]
AMP型アルゴリズムの重要な特徴は、それらの力学が状態進化によって正しく記述できることである。
本稿では,十分に統計的なメモリAMP(SS-MAMP)アルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-31T07:25:18Z) - Estimation in Rotationally Invariant Generalized Linear Models via
Approximate Message Passing [21.871513580418604]
本稿では,信号推定のための近接メッセージパッシング(AMP)アルゴリズムの新たなファミリーを提案する。
我々は、状態進化再帰を通じて高次元の限界におけるそれらの性能を厳格に特徴づける。
論文 参考訳(メタデータ) (2021-12-08T15:20:04Z) - Memory Approximate Message Passing [9.116196799517262]
本稿では、干渉抑制のための長メモリマッチングフィルタを提案するメモリAMP(MAMP)を提案する。
状態進化は、MAMPの性能を特徴づけるために導かれる。
すべての右単位不変行列に対して、最適化された MAMP は OAMP/VAMP に収束し、一意な不動点を持つならベイズ最適である。
論文 参考訳(メタデータ) (2021-06-04T03:37:14Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Approximate Message Passing with Spectral Initialization for Generalized
Linear Models [35.618694363241744]
我々は、近似メッセージパッシング(AMP)に基づく推定器に焦点を当てる。
スペクトル推定器を用いたAMPアルゴリズムを提案する。
また,提案手法の有効性を示す数値的な結果も提供する。
論文 参考訳(メタデータ) (2020-10-07T14:52:35Z) - Modal Regression based Structured Low-rank Matrix Recovery for
Multi-view Learning [70.57193072829288]
近年、低ランクなマルチビューサブスペース学習は、クロスビューの分類において大きな可能性を示している。
既存のLMvSLベースの手法では、ビューの区別と差別を同時に扱うことができない。
本稿では,視差を効果的に除去し,識別性を向上する独自の方法であるStructured Low-rank Matrix Recovery (SLMR)を提案する。
論文 参考訳(メタデータ) (2020-03-22T03:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。