論文の概要: Instabilities in Plug-and-Play (PnP) algorithms from a learned denoiser
- arxiv url: http://arxiv.org/abs/2109.01655v1
- Date: Tue, 17 Aug 2021 05:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-12 13:22:18.812304
- Title: Instabilities in Plug-and-Play (PnP) algorithms from a learned denoiser
- Title(参考訳): 学習用デノイザからのPlug-and-Playアルゴリズムの不安定性
- Authors: Abinash Nayak
- Abstract要約: 逆問題には問題があり、意味のある解決には正規化手法を使わなければならないことはよく知られている。
近年、古典正規化のアプローチは、いわゆるプラグ・アンド・プレイ・アルゴリズムによって非分類化されている。
私たちはそれを勾配を示します。
アルゴリズムは、事前訓練されたディープラーニングベース(DnCNN)デノイザを使用する場合、幻覚的特徴を誘導することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: It's well-known that inverse problems are ill-posed and to solve them
meaningfully, one has to employ regularization methods. Traditionally, popular
regularization methods are the penalized Variational approaches. In recent
years, the classical regularization approaches have been outclassed by the
so-called plug-and-play (PnP) algorithms, which copy the proximal gradient
minimization processes, such as ADMM or FISTA, but with any general denoiser.
However, unlike the traditional proximal gradient methods, the theoretical
underpinnings, convergence, and stability results have been insufficient for
these PnP-algorithms. Hence, the results obtained from these algorithms, though
empirically outstanding, can't always be completely trusted, as they may
contain certain instabilities or (hallucinated) features arising from the
denoiser, especially when using a pre-trained learned denoiser. In fact, in
this paper, we show that a PnP-algorithm can induce hallucinated features, when
using a pre-trained deep-learning-based (DnCNN) denoiser. We show that such
instabilities are quite different than the instabilities inherent to an
ill-posed problem. We also present methods to subdue these instabilities and
significantly improve the recoveries. We compare the advantages and
disadvantages of a learned denoiser over a classical denoiser (here, BM3D), as
well as, the effectiveness of the FISTA-PnP algorithm vs. the ADMM-PnP
algorithm. In addition, we also provide an algorithm to combine these two
denoisers, the learned and the classical, in a weighted fashion to produce even
better results. We conclude with numerical results which validate the developed
theories.
- Abstract(参考訳): 逆問題には問題があり、意味のある解決には正規化手法を使わなければならないことはよく知られている。
伝統的に、一般的な正規化法はペナルティ化された変分アプローチである。
近年では、ADMMやFISTAのような近位勾配最小化過程を模倣するいわゆるプラグ・アンド・プレイ(PnP)アルゴリズムによって古典正規化のアプローチは非クラス化されている。
しかし、従来の近位勾配法とは異なり、理論的な基盤、収束、安定性はこれらのPnP-アルゴリズムでは不十分である。
したがって、これらのアルゴリズムから得られた結果は経験的に優れているものの、特定の不安定性やデノイザーから生じる(ハロゲン化)特徴を含む可能性があるため、完全に信頼されるとは限らない。
実際,本論文では,PnP-algorithmが,事前学習型ディープラーニング(DnCNN)デノイザを用いた場合,幻覚的特徴を誘導できることを示す。
このような不安定性は、不適切な問題に固有の不安定性とは全く異なる。
また, これらの不安定性を抑え, 回復を著しく改善する手法を提案する。
古典的デノイザー(bm3d)に対する学習デノイザーの長所と短所を比較し,fista-pnpアルゴリズムの有効性をadmm-pnpアルゴリズムと比較した。
さらに,これら2つの分母(学習者,古典的)を重み付けした方法で結合し,さらによい結果を得るアルゴリズムも提供する。
発展理論を検証した数値的な結果を得た。
関連論文リスト
- Truly No-Regret Learning in Constrained MDPs [61.78619476991494]
未知のCMDPで学習するモデルベース原始双対アルゴリズムを提案する。
提案アルゴリズムは,誤差のキャンセルを伴わずにサブ線形後悔を実現する。
論文 参考訳(メタデータ) (2024-02-24T09:47:46Z) - Plug-and-Play image restoration with Stochastic deNOising REgularization [8.678250057211368]
SNORE(Denoising Regularization)と呼ばれる新しいフレームワークを提案する。
SNOREは、適切なレベルのノイズのある画像のみにデノイザを適用する。
これは明示的な正則化に基づいており、逆問題を解決するための降下につながる。
論文 参考訳(メタデータ) (2024-02-01T18:05:47Z) - Unfolded proximal neural networks for robust image Gaussian denoising [7.018591019975253]
本稿では,二元FBと二元Chambolle-Pockアルゴリズムの両方に基づいて,ガウス分母タスクのためのPNNを統一的に構築するフレームワークを提案する。
また、これらのアルゴリズムの高速化により、関連するNN層におけるスキップ接続が可能であることを示す。
論文 参考訳(メタデータ) (2023-08-06T15:32:16Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - A relaxed proximal gradient descent algorithm for convergent
plug-and-play with proximal denoiser [6.2484576862659065]
本稿では,新しいコンバーゼントなPlug-and-fidelity Descent (Play)アルゴリズムを提案する。
このアルゴリズムは、より広い範囲の通常の凸化パラメータに収束し、画像のより正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-01-31T16:11:47Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Emphatic Algorithms for Deep Reinforcement Learning [43.17171330951343]
時間差学習アルゴリズムは関数近似とオフポリシーサンプリングを組み合わせると不安定になる。
強調時間差(ETD($lambda$)アルゴリズム)は、TD($lambda$)更新を適切に重み付けすることで線形の場合の収束を保証する。
本稿では,ETD($lambda$)をフォワードビュー・マルチステップ・リターンを用いた一般的な深層強化学習アルゴリズムに適用することにより,性能が低下することを示す。
論文 参考訳(メタデータ) (2021-06-21T12:11:39Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z) - Scalable Plug-and-Play ADMM with Convergence Guarantees [24.957046830965822]
広範に使われている変種を漸進的に提案する。
ADMMアルゴリズムにより、大規模データセットにスケーラブルになる。
理論的には,集合的明示的な仮定の下で収束アルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-05T04:10:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。