論文の概要: A deep primal-dual proximal network for image restoration
- arxiv url: http://arxiv.org/abs/2007.00959v3
- Date: Mon, 20 Dec 2021 14:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:17:39.497682
- Title: A deep primal-dual proximal network for image restoration
- Title(参考訳): 画像復元のための深部前頭葉近位ネットワーク
- Authors: Mingyuan Jiu, Nelly Pustelnik
- Abstract要約: 我々は、プリミティブ・デュアル・イテレーションから構築されたディープPDNetというディープネットワークを設計し、前もって分析を行い、標準的なペナル化可能性の最小化を図った。
フルラーニング」と「パートラーニング」の2つの異なる学習戦略が提案され、第1は最も効率的な数値である。
以上の結果から,提案したDeepPDNetは,MNISTと,より複雑なBSD68,BSD100,SET14データセットにおいて,画像復元と単一画像超解像処理に優れた性能を示した。
- 参考スコア(独自算出の注目度): 8.797434238081372
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image restoration remains a challenging task in image processing. Numerous
methods tackle this problem, often solved by minimizing a non-smooth penalized
co-log-likelihood function. Although the solution is easily interpretable with
theoretic guarantees, its estimation relies on an optimization process that can
take time. Considering the research effort in deep learning for image
classification and segmentation, this class of methods offers a serious
alternative to perform image restoration but stays challenging to solve inverse
problems. In this work, we design a deep network, named DeepPDNet, built from
primal-dual proximal iterations associated with the minimization of a standard
penalized likelihood with an analysis prior, allowing us to take advantage of
both worlds.
We reformulate a specific instance of the Condat-Vu primal-dual hybrid
gradient (PDHG) algorithm as a deep network with fixed layers. The learned
parameters are both the PDHG algorithm step-sizes and the analysis linear
operator involved in the penalization (including the regularization parameter).
These parameters are allowed to vary from a layer to another one. Two different
learning strategies: "Full learning" and "Partial learning" are proposed, the
first one is the most efficient numerically while the second one relies on
standard constraints ensuring convergence in the standard PDHG iterations.
Moreover, global and local sparse analysis prior are studied to seek a better
feature representation. We apply the proposed methods to image restoration on
the MNIST and BSD68 datasets and to single image super-resolution on the BSD100
and SET14 datasets. Extensive results show that the proposed DeepPDNet
demonstrates excellent performance on the MNIST and the more complex BSD68,
BSD100, and SET14 datasets for image restoration and single image
super-resolution task.
- Abstract(参考訳): 画像復元は依然として画像処理において難しい課題である。
多数の方法がこの問題に取り組み、しばしば非スムースペナル化コログ類似関数を最小化することで解決される。
解は理論的な保証で容易に解釈できるが、その推定は時間を要する最適化プロセスに依存している。
画像分類とセグメンテーションの深層学習の取り組みを考えると、この手法は画像復元に真剣な代替手段を提供するが、逆問題の解決は困難である。
本研究では,本研究で提案するdeeppdnetという深層ネットワークを,先行分析による標準的なペナルティ化確率の最小化に伴う初歩的近近距離イテレーションから構築し,両者の利点を生かすことができるように設計する。
我々は,固定層を持つディープネットワークとして,condat-vu primal-dual hybrid gradient (pdhg)アルゴリズムの具体例を再構成する。
学習パラメータはPDHGアルゴリズムのステップサイズと、ペナル化に関与する解析線形演算子(正規化パラメータを含む)である。
これらのパラメータは、ある層から別の層へ変更することができる。
完全学習」と「部分学習」の2つの異なる学習戦略が提案され、第1は最も効率的な数値であり、第2は標準PDHGイテレーションの収束を保証するための標準制約に依存している。
さらに,大域的および局所的なスパース解析を行い,より優れた特徴表現を求める。
提案手法は,MNISTおよびBSD68データセット上の画像復元とBSD100およびSET14データセット上の単一画像超解像に適用する。
以上の結果から,提案したDeepPDNetは,MNISTと,より複雑なBSD68,BSD100,SET14データセットにおいて,画像復元と単一画像超解像処理に優れた性能を示した。
関連論文リスト
- PRISTA-Net: Deep Iterative Shrinkage Thresholding Network for Coded
Diffraction Patterns Phase Retrieval [6.982256124089]
位相検索は、計算画像および画像処理における非線型逆問題である。
我々は,1次反復しきい値しきい値アルゴリズム(ISTA)に基づく深層展開ネットワークであるPRISTA-Netを開発した。
非線形変換,しきい値,ステップサイズなど,提案するPRISTA-Netフレームワークのパラメータはすべて,設定されるのではなく,エンドツーエンドで学習される。
論文 参考訳(メタデータ) (2023-09-08T07:37:15Z) - Deep Generalized Unfolding Networks for Image Restoration [16.943609020362395]
画像復元のためのDeep Generalized Unfolding Network (DGUNet)を提案する。
我々は、勾配推定戦略をPGDアルゴリズムの勾配降下ステップに統合する。
我々の手法は、最先端の性能、解釈可能性、一般化可能性の点で優れている。
論文 参考訳(メタデータ) (2022-04-28T08:39:39Z) - Learning Weighting Map for Bit-Depth Expansion within a Rational Range [64.15915577164894]
ビット深化(BDE)は、低ビット深化(LBD)ソースから高ビット深化(HBD)画像を表示する新興技術の1つである。
既存のBDEメソッドは、様々なBDE状況に対して統一的なソリューションを持っていない。
我々は,各画素の重みを求めるためにビット復元ネットワーク(BRNet)を設計し,補充値の比率を合理的範囲内で示す。
論文 参考訳(メタデータ) (2022-04-26T02:27:39Z) - DeepRLS: A Recurrent Network Architecture with Least Squares Implicit
Layers for Non-blind Image Deconvolution [15.986942312624]
非盲点画像デコンボリューションの問題について検討する。
本稿では,画像品質の非常に競争力のある復元結果をもたらす新しい再帰的ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-10T13:16:51Z) - Deep Amended Gradient Descent for Efficient Spectral Reconstruction from
Single RGB Images [42.26124628784883]
本稿では、AGD-Netという、コンパクトで効率的でエンドツーエンドの学習ベースのフレームワークを提案する。
まず、古典的勾配降下アルゴリズムに基づいて問題を明示的に定式化する。
AGD-Netは、平均1.0dB以上のリコンストラクション品質を向上させることができる。
論文 参考訳(メタデータ) (2021-08-12T05:54:09Z) - LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single
Image Super-Resolution and Beyond [75.37541439447314]
単一画像超解像(SISR)は、低解像度(LR)画像を高解像度(HR)バージョンにアップサンプリングする根本的な問題を扱う。
本稿では,線形組立画素適応回帰ネットワーク (LAPAR) を提案する。
論文 参考訳(メタデータ) (2021-05-21T15:47:18Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。