論文の概要: Projected Gradient Descent Algorithms for Solving Nonlinear Inverse
Problems with Generative Priors
- arxiv url: http://arxiv.org/abs/2209.10093v1
- Date: Wed, 21 Sep 2022 04:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 15:32:02.544138
- Title: Projected Gradient Descent Algorithms for Solving Nonlinear Inverse
Problems with Generative Priors
- Title(参考訳): 生成前もって非線形逆問題を解くための投影勾配降下アルゴリズム
- Authors: Zhaoqiang Liu, Jun Han
- Abstract要約: 未知の$p$次元信号は、有界な$k$次元入力を持つ$L$-Lipschitz連続生成モデルの範囲近くにあると仮定する。
本稿では, 最適統計率を期待できる非線形最小二乗推定器を提案する。
- 参考スコア(独自算出の注目度): 17.426500577203505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose projected gradient descent (PGD) algorithms for
signal estimation from noisy nonlinear measurements. We assume that the unknown
$p$-dimensional signal lies near the range of an $L$-Lipschitz continuous
generative model with bounded $k$-dimensional inputs. In particular, we
consider two cases when the nonlinear link function is either unknown or known.
For unknown nonlinearity, similarly to \cite{liu2020generalized}, we make the
assumption of sub-Gaussian observations and propose a linear least-squares
estimator. We show that when there is no representation error and the sensing
vectors are Gaussian, roughly $O(k \log L)$ samples suffice to ensure that a
PGD algorithm converges linearly to a point achieving the optimal statistical
rate using arbitrary initialization. For known nonlinearity, we assume
monotonicity as in \cite{yang2016sparse}, and make much weaker assumptions on
the sensing vectors and allow for representation error. We propose a nonlinear
least-squares estimator that is guaranteed to enjoy an optimal statistical
rate. A corresponding PGD algorithm is provided and is shown to also converge
linearly to the estimator using arbitrary initialization. In addition, we
present experimental results on image datasets to demonstrate the performance
of our PGD algorithms.
- Abstract(参考訳): 本稿では,雑音非線形測定から信号推定を行うためのPGDアルゴリズムを提案する。
未知の$p$次元信号は、有界な$k$次元入力を持つ$L$-Lipschitz連続生成モデルの範囲近くにあると仮定する。
特に、非線形リンク関数が未知あるいは既知の2つの場合を考える。
未知の非線形性、例えば \cite{liu2020 generalized} に対して、準ガウス観測を仮定し、線形最小二乗推定器を提案する。
表現誤差がなく、検出ベクトルがガウスであるとき、およそ$O(k \log L)$サンプルはPGDアルゴリズムが任意の初期化を用いて最適な統計率を達成する点に線形に収束することを保証するのに十分であることを示す。
既知の非線形性について、単調性は \cite{yang2016sparse} と仮定し、センシングベクトルに対してより弱い仮定を行い、表現誤差を許容する。
本稿では, 最適統計率を期待できる非線形最小二乗推定器を提案する。
対応するpgdアルゴリズムを提供し、任意の初期化を用いて推定器に線形に収束することを示す。
さらに, PGDアルゴリズムの性能を示すために, 画像データセットに関する実験結果を示す。
関連論文リスト
- Uncertainty quantification for iterative algorithms in linear models with application to early stopping [4.150180443030652]
本稿では,高次元線形回帰問題における反復アルゴリズムから得られた繰り返し$hbb1,dots,hbbT$について検討する。
解析および提案した推定器は、GD(Gradient Descent)、GD(GD)およびFast Iterative Soft-Thresholding(FISTA)などの加速変種に適用できる。
論文 参考訳(メタデータ) (2024-04-27T10:20:41Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Alternating minimization for generalized rank one matrix sensing: Sharp predictions from a random initialization [5.900674344455754]
ランクランダム行列の特性をdで推定する手法を示す。
鋭い収束は、単一のステップで正確な回復を保証する。
我々の分析は、この問題の他のいくつかの特性も明らかにしている。
論文 参考訳(メタデータ) (2022-07-20T05:31:05Z) - Statistical Inference of Constrained Stochastic Optimization via Sketched Sequential Quadratic Programming [53.63469275932989]
制約付き非線形最適化問題のオンライン統計的推測を考察する。
これらの問題を解決するために、逐次二次計画法(StoSQP)を適用する。
論文 参考訳(メタデータ) (2022-05-27T00:34:03Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Sample Complexity Bounds for Two Timescale Value-based Reinforcement
Learning Algorithms [65.09383385484007]
2つの時間スケール近似(SA)は、値に基づく強化学習アルゴリズムで広く使われている。
本稿では,2つの時間スケール線形および非線形TDCとGreedy-GQアルゴリズムの漸近収束率について検討する。
論文 参考訳(メタデータ) (2020-11-10T11:36:30Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model [0.0]
このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-15T08:25:50Z) - Asymptotic errors for convex penalized linear regression beyond Gaussian
matrices [23.15629681360836]
雑音線形観測から係数ベクトル$x_0$ in$RN$を学習する問題を考察する。
平均二乗誤差に対する明示的な式を厳密に導出する。
我々の予測は、非常に適度なサイズであっても、数値と非常によく一致していることを示す。
論文 参考訳(メタデータ) (2020-02-11T13:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。