論文の概要: Learning Sparsity-Promoting Regularizers using Bilevel Optimization
- arxiv url: http://arxiv.org/abs/2207.08939v2
- Date: Tue, 5 Sep 2023 20:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 20:18:41.654309
- Title: Learning Sparsity-Promoting Regularizers using Bilevel Optimization
- Title(参考訳): バイレベル最適化を用いた学習スパーシティプロモーティング正則化器
- Authors: Avrajit Ghosh, Michael T. McCann, Madeline Mitchell, and Saiprasad
Ravishankar
- Abstract要約: 本稿では,信号や画像の識別のための疎結合型正規化器の教師あり学習法を提案する。
構造化された1D信号と自然画像を用いて実験したところ,提案手法はよく知られた正規化器よりも優れた演算子を学習できることがわかった。
- 参考スコア(独自算出の注目度): 9.18465987536469
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a method for supervised learning of sparsity-promoting
regularizers for denoising signals and images. Sparsity-promoting
regularization is a key ingredient in solving modern signal reconstruction
problems; however, the operators underlying these regularizers are usually
either designed by hand or learned from data in an unsupervised way. The recent
success of supervised learning (mainly convolutional neural networks) in
solving image reconstruction problems suggests that it could be a fruitful
approach to designing regularizers. Towards this end, we propose to denoise
signals using a variational formulation with a parametric, sparsity-promoting
regularizer, where the parameters of the regularizer are learned to minimize
the mean squared error of reconstructions on a training set of ground truth
image and measurement pairs. Training involves solving a challenging bilievel
optimization problem; we derive an expression for the gradient of the training
loss using the closed-form solution of the denoising problem and provide an
accompanying gradient descent algorithm to minimize it. Our experiments with
structured 1D signals and natural images show that the proposed method can
learn an operator that outperforms well-known regularizers (total variation,
DCT-sparsity, and unsupervised dictionary learning) and collaborative filtering
for denoising. While the approach we present is specific to denoising, we
believe that it could be adapted to the larger class of inverse problems with
linear measurement models, giving it applicability in a wide range of signal
reconstruction settings.
- Abstract(参考訳): 本稿では,信号と画像の同期化のためのスパルシリティプロモーティング正規化器の教師付き学習法を提案する。
スパルシリティプロモーティング正則化は、現代の信号再構成問題を解決する上で重要な要素であるが、これらの正則化の基礎となる演算子は通常、手で設計するか、教師なしの方法でデータから学習される。
画像再構成問題の解決における教師あり学習(主に畳み込みニューラルネットワーク)の成功は、正規化器を設計するための実りあるアプローチであることを示している。
そこで本研究では,パラメトリック・スパーシティ・プロモーティング・レギュラライザを用いた変分定式化手法を用いて,レギュラライザのパラメータを学習し,地上真理画像と計測ペアのトレーニングセットにおける再構成平均二乗誤差を最小化する手法を提案する。
トレーニングは、難解な双可解最適化問題を解くことを含み、デノナイジング問題の閉形式解を用いて、トレーニング損失の勾配の式を導出し、それを最小化する勾配降下アルゴリズムを提供する。
本研究では,構造化1次元信号と自然画像を用いた実験により,既知の正規化器(トータル変動,dct-sparsity,教師なし辞書学習)と協調フィルタリングを学習し,雑音除去を行うことができることを示す。
我々が提示するアプローチはデノイジングに特有であるが、線形計測モデルによるより広い種類の逆問題に適用できると信じており、幅広い信号再構成設定で適用可能である。
関連論文リスト
- Image Restoration by Denoising Diffusion Models with Iteratively Preconditioned Guidance [9.975341265604577]
深層ニューラルネットワークのトレーニングは、画像復元問題に対処するための一般的なアプローチとなっている。
低ノイズ環境では、バックプロジェクション(BP)に基づくガイダンスが有望な戦略であることが示されている。
本稿では,BPベースのガイダンスから少なくとも2乗のガイダンスへのトラバースを可能にする,事前条件に基づく新しいガイダンス手法を提案する。
論文 参考訳(メタデータ) (2023-12-27T10:57:03Z) - Batch-less stochastic gradient descent for compressive learning of deep
regularization for image denoising [0.0]
クリーンな信号や画像のデータベースから取得した事前情報の助けを借りて飾ることの問題点を考察する。
ディープニューラルネットワーク(DNN)では、大規模なトレーニングデータベースから複雑な分布を復元することができる。
深部正規化パラメータの回復のための2種類の勾配降下法(SGD)を提案する。
論文 参考訳(メタデータ) (2023-10-02T11:46:11Z) - Denoising Diffusion Restoration Models [110.1244240726802]
Denoising Diffusion Restoration Models (DDRM) は効率的で教師なしの後方サンプリング手法である。
DDRMの汎用性を、超高解像度、デブロアリング、インペイント、カラー化のためにいくつかの画像データセットに示す。
論文 参考訳(メタデータ) (2022-01-27T20:19:07Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Bilevel learning of l1-regularizers with closed-form gradients(BLORC) [8.138650738423722]
本稿では,スパーシティー促進型正規化器の教師あり学習法を提案する。
これらのパラメータは、基底真理信号と測定ペアのトレーニングセットにおける再構成の平均2乗誤差を最小限に抑えるために学習される。
論文 参考訳(メタデータ) (2021-11-21T17:01:29Z) - Preconditioned Plug-and-Play ADMM with Locally Adjustable Denoiser for
Image Restoration [54.23646128082018]
非定常雑音分散のパラメータ化が可能なデノイザを使用するために、プラグアンドプレイの最適化の概念を拡張した。
画素調整可能なデノイザは,適切なプレコンディショニング戦略とともに,いくつかのアプリケーションに対して,プラグアンドプレイADMMアプローチをさらに改善できることを示す。
論文 参考訳(メタデータ) (2021-10-01T15:46:35Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Learned convex regularizers for inverse problems [3.294199808987679]
本稿では,逆問題に対する正規化器として,データ適応型入力ニューラルネットワーク(ICNN)を学習することを提案する。
パラメータ空間における単調な誤差を反復で減少させる部分次アルゴリズムの存在を実証する。
提案した凸正則化器は, 逆問題に対する最先端のデータ駆動技術に対して, 少なくとも競争力があり, 時には優位であることを示す。
論文 参考訳(メタデータ) (2020-08-06T18:58:35Z) - Fully Unsupervised Diversity Denoising with Convolutional Variational
Autoencoders [81.30960319178725]
完全畳み込み変分オートエンコーダ(VAE)に基づく復調手法であるDivNoisingを提案する。
まず, 撮像ノイズモデルをデコーダに明示的に組み込むことにより, 教師なしの雑音発生問題をVAEフレームワーク内に定式化する手法を提案する。
このようなノイズモデルは、ノイズの多いデータから測定したり、ブートストラップしたり、トレーニング中に共同学習したりすることが可能である。
論文 参考訳(メタデータ) (2020-06-10T21:28:13Z) - Supervised Learning of Sparsity-Promoting Regularizers for Denoising [13.203765985718205]
本稿では,画像復調のための疎度促進型正規化器の教師あり学習法を提案する。
実験の結果,提案手法はよく知られた正規化器よりも優れた演算子を学習できることがわかった。
論文 参考訳(メタデータ) (2020-06-09T21:38:05Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。