論文の概要: From sparse recovery to plug-and-play priors, understanding trade-offs for stable recovery with generalized projected gradient descent
- arxiv url: http://arxiv.org/abs/2512.07397v1
- Date: Mon, 08 Dec 2025 10:31:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.839899
- Title: From sparse recovery to plug-and-play priors, understanding trade-offs for stable recovery with generalized projected gradient descent
- Title(参考訳): スパースリカバリからプラグ・アンド・プレイ先行まで、一般化された勾配降下による安定回復のためのトレードオフを理解する
- Authors: Ali Joundi, Yann Traonmilin, Jean-François Aujol,
- Abstract要約: 雑音や過度な観測から未知の低次元ベクトルを復元する問題を考察する。
我々は,従来のスパースリカバリ手法と現代的なアプローチを統合するGPGD(Generalized Projected Gradient Descent)フレームワークに注目した。
- 参考スコア(独自算出の注目度): 2.599882743586164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of recovering an unknown low-dimensional vector from noisy, underdetermined observations. We focus on the Generalized Projected Gradient Descent (GPGD) framework, which unifies traditional sparse recovery methods and modern approaches using learned deep projective priors. We extend previous convergence results to robustness to model and projection errors. We use these theoretical results to explore ways to better control stability and robustness constants. To reduce recovery errors due to measurement noise, we consider generalized back-projection strategies to adapt GPGD to structured noise, such as sparse outliers. To improve the stability of GPGD, we propose a normalized idempotent regularization for the learning of deep projective priors. We provide numerical experiments in the context of sparse recovery and image inverse problems, highlighting the trade-offs between identifiability and stability that can be achieved with such methods.
- Abstract(参考訳): 雑音や過度な観測から未知の低次元ベクトルを復元する問題を考察する。
我々は,従来のスパースリカバリ手法と,学習された深部投射的先進的先進的アプローチを統一するGPGD(Generalized Projected Gradient Descent)フレームワークに焦点を当てた。
我々は、過去の収束結果をモデルおよび投影誤差に対する堅牢性に拡張する。
これらの理論結果を用いて、安定性とロバスト性定数をよりよく制御する方法を探索する。
計測ノイズによる回復誤差を低減するため,GPGDを疎外器などの構造ノイズに適応させる一般的な後方投射戦略を検討する。
GPGDの安定性を向上させるため, 深部投射先行学習のための正規化等等等正規化を提案する。
我々は,スパースリカバリと画像逆問題という文脈で数値実験を行い,このような方法で実現可能な識別可能性と安定性のトレードオフを明らかにする。
関連論文リスト
- Stochastic Orthogonal Regularization for deep projective priors [2.990411348977783]
本稿では,GPGDアルゴリズムに焦点をあてる。
ニューラルネットワークは、画像などの複雑なデータをモデル化する未知の低次元集合への投影を可能にする。
論文 参考訳(メタデータ) (2025-05-19T13:12:01Z) - PtyGenography: using generative models for regularization of the phase retrieval problem [0.562479170374811]
古典的および生成的逆問題定式化の再構成特性を比較する。
本稿では,様々なノイズレベルに対する生成モデルへの過度適合を緩和する新しい統一的再構成手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T13:26:55Z) - Addressing the Inconsistency in Bayesian Deep Learning via Generalized Laplace Approximation [17.224114053715528]
一般化されたラプラス近似を導入し、正規化損失のヘシアン計算に簡単な修正しか必要としない。
提案手法を最先端のニューラルネットワークと実世界のデータセットで評価し,一般化されたラプラス近似が予測性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-05-22T11:11:42Z) - Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance [52.093434664236014]
近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
論文 参考訳(メタデータ) (2024-02-03T13:35:39Z) - Domain Generalization Guided by Gradient Signal to Noise Ratio of
Parameters [69.24377241408851]
ソースドメインへのオーバーフィッティングは、ディープニューラルネットワークの勾配に基づくトレーニングにおいて一般的な問題である。
本稿では,ネットワークパラメータの勾配-信号-雑音比(GSNR)を選択することを提案する。
論文 参考訳(メタデータ) (2023-10-11T10:21:34Z) - Convex Latent-Optimized Adversarial Regularizers for Imaging Inverse
Problems [8.33626757808923]
本稿では,新しいデータ駆動型パラダイムであるConvex Latent-d Adrial Regularizers (CLEAR)を紹介する。
CLEARは、ディープラーニング(DL)と変分正規化の融合を表す。
本手法は従来型のデータ駆動手法と従来型の正規化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-17T12:06:04Z) - DiffusionAD: Norm-guided One-step Denoising Diffusion for Anomaly Detection [80.20339155618612]
DiffusionADは、再構成サブネットワークとセグメンテーションサブネットワークからなる、新しい異常検出パイプラインである。
高速なワンステップデノゲーションパラダイムは、同等の再現品質を維持しながら、数百倍の加速を達成する。
異常の出現の多様性を考慮し、複数のノイズスケールの利点を統合するためのノルム誘導パラダイムを提案する。
論文 参考訳(メタデータ) (2023-03-15T16:14:06Z) - A Bayesian Robust Regression Method for Corrupted Data Reconstruction [5.298637115178182]
我々は適応的敵攻撃に抵抗できる効果的なロバスト回帰法を開発した。
まず TRIP (hard Thresholding approach to Robust regression with sImple Prior) アルゴリズムを提案する。
次に、より堅牢なBRHT (robust Bayesian Reweighting regression via Hard Thresholding) アルゴリズムを構築するためにベイズ再重み付け(Bayesian reweighting)というアイデアを用いる。
論文 参考訳(メタデータ) (2022-12-24T17:25:53Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。