論文の概要: TFPnP: Tuning-free Plug-and-Play Proximal Algorithm with Applications to
Inverse Imaging Problems
- arxiv url: http://arxiv.org/abs/2012.05703v3
- Date: Sat, 18 Sep 2021 04:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 05:05:22.593349
- Title: TFPnP: Tuning-free Plug-and-Play Proximal Algorithm with Applications to
Inverse Imaging Problems
- Title(参考訳): tfpnp:チューニングフリーなプラグ・アンド・プレイ近位アルゴリズムと逆イメージング問題への応用
- Authors: Kaixuan Wei, Angelica Aviles-Rivero, Jingwei Liang, Ying Fu, Hua
Huang, Carola-Bibiane Sch\"onlieb
- Abstract要約: Plug-and-Play (MM) は非最適化フレームワークであり、例えば、数値アルゴリズムと高度なデノゲーション前処理を組み合わせたものである。
我々は、学習戦略とともに最先端の成果である、より難解な問題に対するいくつかの実践的考察について論じる。
- 参考スコア(独自算出の注目度): 22.239477171296056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Plug-and-Play (PnP) is a non-convex optimization framework that combines
proximal algorithms, for example, the alternating direction method of
multipliers (ADMM), with advanced denoising priors. Over the past few years,
great empirical success has been obtained by PnP algorithms, especially for the
ones that integrate deep learning-based denoisers. However, a key challenge of
PnP approaches is the need for manual parameter tweaking as it is essential to
obtain high-quality results across the high discrepancy in imaging conditions
and varying scene content. In this work, we present a class of tuning-free PnP
proximal algorithms that can determine parameters such as denoising strength,
termination time, and other optimization-specific parameters automatically. A
core part of our approach is a policy network for automated parameter search
which can be effectively learned via a mixture of model-free and model-based
deep reinforcement learning strategies. We demonstrate, through rigorous
numerical and visual experiments, that the learned policy can customize
parameters to different settings, and is often more efficient and effective
than existing handcrafted criteria. Moreover, we discuss several practical
considerations of PnP denoisers, which together with our learned policy yield
state-of-the-art results. This advanced performance is prevalent on both linear
and nonlinear exemplar inverse imaging problems, and in particular shows
promising results on compressed sensing MRI, sparse-view CT, single-photon
imaging, and phase retrieval.
- Abstract(参考訳): plug-and-play (pnp) は非凸最適化フレームワークであり、近位アルゴリズム、例えば乗算器の交互方向法(admm)と高度な分数前置法を組み合わせたものである。
ここ数年、pnpアルゴリズム、特にディープラーニングベースのデノイザーを統合するアルゴリズムによって、大きな経験的成功が得られている。
しかし、PnPアプローチの重要な課題は、画像条件とシーン内容の相違により高品質な結果を得ることが不可欠であるため、手動パラメータ調整の必要性である。
そこで本研究では, 調律不要なPnP近似アルゴリズムを用いて, 劣化強度, 終了時間, その他の最適化パラメータを自動決定する手法を提案する。
提案手法の中核となるのは,モデルフリーとモデルベース深層強化学習戦略の混合によって効果的に学習できる自動パラメータ探索のためのポリシーネットワークである。
厳密な数値および視覚実験を通じて、学習されたポリシーはパラメータを異なる設定にカスタマイズすることができ、しばしば既存の手作り基準よりも効率的で効果的であることを示す。
さらに,PnPデノイザーの実践的考察についても論じ,学習方針と合わせて最先端の成果が得られた。
この高度な性能は、線形および非線形の逆画像上の問題、特に圧縮センシングMRI、スパースCT、単光子イメージング、位相検索において有望な結果を示す。
関連論文リスト
- PnP-Flow: Plug-and-Play Image Restoration with Flow Matching [2.749898166276854]
本稿では,逆画像問題の解法であるPlug-and-Play Flow Matchingを提案する。
我々は,デノイング,スーパーレゾリューション,インペインティングのタスクにおける性能を評価した。
論文 参考訳(メタデータ) (2024-10-03T12:13:56Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Meta-Learning Digitized-Counterdiabatic Quantum Optimization [3.0638256603183054]
本稿では,リカレントニューラルネットワークを用いたメタラーニング手法を用いて,変分最適化に適した初期パラメータを求める問題に取り組む。
我々は、最近提案されたディジタル化対数量子近似アルゴリズム(DC-QAOA)を用いて、この手法について検討する。
メタラーニングとDC-QAOAを組み合わせることで、MaxCut問題やSherrington-Kirkpatrickモデルなど、異なるモデルに対する最適な初期パラメータを見つけることができる。
論文 参考訳(メタデータ) (2022-06-20T18:57:50Z) - Online Deep Equilibrium Learning for Regularization by Denoising [20.331171081002957]
Plug-and-Play Equilibrium Priors (メモリ)とRegularization by Denoising (RED)は、固定点の計算によって逆画像問題を解決するために広く使われているフレームワークである。
我々は,測定総数に基づいてDEC/REDの効率を向上させるための新しい戦略としてODERを提案する。
以上の結果から,ODERによるトレーニング/テストの複雑さが3つの異なる画像応用において改善する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-25T21:06:22Z) - Preconditioned Plug-and-Play ADMM with Locally Adjustable Denoiser for
Image Restoration [54.23646128082018]
非定常雑音分散のパラメータ化が可能なデノイザを使用するために、プラグアンドプレイの最適化の概念を拡張した。
画素調整可能なデノイザは,適切なプレコンディショニング戦略とともに,いくつかのアプリケーションに対して,プラグアンドプレイADMMアプローチをさらに改善できることを示す。
論文 参考訳(メタデータ) (2021-10-01T15:46:35Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - A Fast Stochastic Plug-and-Play ADMM for Imaging Inverse Problems [5.025654873456756]
本稿では,画像アプリケーションのための効率的なプラグアンドプレイ(逆問題)アルゴリズムを提案する。
提案手法の有効性を最先端手法と比較し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-06-20T18:03:52Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z) - Tuning-free Plug-and-Play Proximal Algorithm for Inverse Imaging
Problems [22.239477171296056]
Plug-and-play ()は、異なる学習アルゴリズムと先進的なデノイザプリエントを組み合わせた、カスタマイズされていないフレームワークである。
重要な問題です。
ベースとなるアプローチは、手動でパラメータを調整する必要があることです。
提案手法の鍵となるのは,パラメータの自動チューニングのためのネットワークポリシの開発である。
圧縮センシングと位相検索において有望な結果を示す。
論文 参考訳(メタデータ) (2020-02-22T03:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。