論文の概要: Convergent plug-and-play with proximal denoiser and unconstrained
regularization parameter
- arxiv url: http://arxiv.org/abs/2311.01216v1
- Date: Thu, 2 Nov 2023 13:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 13:38:59.233781
- Title: Convergent plug-and-play with proximal denoiser and unconstrained
regularization parameter
- Title(参考訳): 近位復調器と非拘束正規化パラメータを用いた収束プラグアンドプレイ
- Authors: Samuel Hurault, Antonin Chambolle, Arthur Leclaire, Nicolas Papadakis
- Abstract要約: 本稿では,Plug-Play(PGD)アルゴリズムの収束性について述べる。
最近の研究は、証明(DRS)による収束を探求している。
まず、新しい収束証明を提供する。
正規化にいかなる制限も課さないDSS。
第2に、画像復元の精度を高めるPGDの緩和版について検討する。
- 参考スコア(独自算出の注目度): 12.006511319607473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present new proofs of convergence for Plug-and-Play (PnP)
algorithms. PnP methods are efficient iterative algorithms for solving image
inverse problems where regularization is performed by plugging a pre-trained
denoiser in a proximal algorithm, such as Proximal Gradient Descent (PGD) or
Douglas-Rachford Splitting (DRS). Recent research has explored convergence by
incorporating a denoiser that writes exactly as a proximal operator. However,
the corresponding PnP algorithm has then to be run with stepsize equal to $1$.
The stepsize condition for nonconvex convergence of the proximal algorithm in
use then translates to restrictive conditions on the regularization parameter
of the inverse problem. This can severely degrade the restoration capacity of
the algorithm. In this paper, we present two remedies for this limitation.
First, we provide a novel convergence proof for PnP-DRS that does not impose
any restrictions on the regularization parameter. Second, we examine a relaxed
version of the PGD algorithm that converges across a broader range of
regularization parameters. Our experimental study, conducted on deblurring and
super-resolution experiments, demonstrate that both of these solutions enhance
the accuracy of image restoration.
- Abstract(参考訳): 本研究では,プラグイン・アンド・プレイ(PnP)アルゴリズムに対する収束の新たな証明を提案する。
PnP法は、GAD(Pximal Gradient Descent)やDRS(Douglas-Rachford Splitting)といった近位アルゴリズムで事前学習したデノイザをプラグすることで正規化を行う画像逆問題を解決するための効率的な反復アルゴリズムである。
近年の研究では、近位演算子として正確に記述されるデノイザを組み込むことで収束を探求している。
しかし、対応するPnPアルゴリズムはステップサイズが1ドルで実行されなければならない。
使用中の近位アルゴリズムの非凸収束のための段差条件は、逆問題の正則化パラメータ上の制限条件に変換される。
これにより、アルゴリズムの復元能力が著しく低下する。
本稿では,この制限に対する2つの対策を提案する。
まず、正規化パラメータに制約を課さないPnP-DRSに対して、新しい収束証明を提供する。
第2に、幅広い正規化パラメータにまたがって収束するpgdアルゴリズムの緩和版について検討する。
劣化実験と超解像実験により,これらの手法が画像復元の精度を高めることを実証した。
関連論文リスト
- On the convergence of adaptive first order methods: proximal gradient and alternating minimization algorithms [4.307128674848627]
AdaPG$q,r$は、より大きな段階的なポリシーと改善された下位境界を提供することで、既存の結果を統一し、拡張するフレームワークである。
パラメータの$q$と$r$の異なる選択について論じ、数値シミュレーションにより結果の有効性を実証する。
論文 参考訳(メタデータ) (2023-11-30T10:29:43Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - A relaxed proximal gradient descent algorithm for convergent
plug-and-play with proximal denoiser [6.2484576862659065]
本稿では,新しいコンバーゼントなPlug-and-fidelity Descent (Play)アルゴリズムを提案する。
このアルゴリズムは、より広い範囲の通常の凸化パラメータに収束し、画像のより正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-01-31T16:11:47Z) - Proximal denoiser for convergent plug-and-play optimization with
nonconvex regularization [7.0226402509856225]
Plug-and-Play ()メソッドは、ニューラルネットワーク演算子をデノナイジング演算子に置き換えることで、アルゴリズムによって、近位姿勢の逆問題を解決する。
このデノイザが実際に勾配関数に対応していることが示される。
論文 参考訳(メタデータ) (2022-01-31T14:05:20Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Variance-Reduced Off-Policy TDC Learning: Non-Asymptotic Convergence
Analysis [27.679514676804057]
オフ・ポリシー・セッティングにおける2つの時間スケールTDCアルゴリズムの分散化手法を開発した。
実験により,提案した分散還元型TDCは,従来のTDCと分散還元型TDよりも収束誤差が小さいことを示した。
論文 参考訳(メタデータ) (2020-10-26T01:33:05Z) - ROOT-SGD: Sharp Nonasymptotics and Near-Optimal Asymptotics in a Single Algorithm [71.13558000599839]
第一次アルゴリズムを用いて,厳密な凸と滑らかな非制約最適化問題の解法について検討する。
我々は,過去の勾配を平均化し,実装が容易な小説「Recursive One-Over-T SGD」を考案した。
有限サンプル, 漸近感覚, 感覚の両面において, 最先端の性能を同時に達成できることを実証する。
論文 参考訳(メタデータ) (2020-08-28T14:46:56Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - On the Almost Sure Convergence of Stochastic Gradient Descent in
Non-Convex Problems [75.58134963501094]
本稿では,勾配降下(SGD)の軌跡を解析する。
我々はSGDが厳格なステップサイズポリシーのために1ドルでサドルポイント/マニフォールドを避けることを示す。
論文 参考訳(メタデータ) (2020-06-19T14:11:26Z) - Plug-and-play ISTA converges with kernel denoisers [21.361571421723262]
プラグアンドプレイ(ブルー)法は画像正規化の最近のパラダイムである。
この点における根本的な問題は、核の理論的収束である。
論文 参考訳(メタデータ) (2020-04-07T06:25:34Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。