論文の概要: A Novel Learnable Gradient Descent Type Algorithm for Non-convex
Non-smooth Inverse Problems
- arxiv url: http://arxiv.org/abs/2003.06748v2
- Date: Tue, 24 Mar 2020 23:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 09:15:17.180899
- Title: A Novel Learnable Gradient Descent Type Algorithm for Non-convex
Non-smooth Inverse Problems
- Title(参考訳): 非凸非平滑逆問題に対する学習可能なグラディエントDescent型アルゴリズム
- Authors: Qingchao Zhang, Xiaojing Ye, Hongcheng Liu, and Yunmei Chen
- Abstract要約: 本稿では,汎用アーキテクチャとニューラルネットワークを用いた逆問題の解法を提案する。
提案したネットワークは, 画像問題に対して, 効率と結果の点で, 状態再構成法よりも優れていた。
- 参考スコア(独自算出の注目度): 3.888272676868008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization algorithms for solving nonconvex inverse problem have attracted
significant interests recently. However, existing methods require the nonconvex
regularization to be smooth or simple to ensure convergence. In this paper, we
propose a novel gradient descent type algorithm, by leveraging the idea of
residual learning and Nesterov's smoothing technique, to solve inverse problems
consisting of general nonconvex and nonsmooth regularization with provable
convergence. Moreover, we develop a neural network architecture intimating this
algorithm to learn the nonlinear sparsity transformation adaptively from
training data, which also inherits the convergence to accommodate the general
nonconvex structure of this learned transformation. Numerical results
demonstrate that the proposed network outperforms the state-of-the-art methods
on a variety of different image reconstruction problems in terms of efficiency
and accuracy.
- Abstract(参考訳): 非凸逆問題に対する最適化アルゴリズムは近年大きな関心を集めている。
しかし、既存の手法では収束を保証するために非凸正則化は滑らかか単純であることが要求される。
本稿では, 残差学習とネステロフの平滑化手法を用いて, 一般非凸と非滑らか正則化からなる逆問題に対して, 証明可能な収束で解く新しい勾配降下型アルゴリズムを提案する。
さらに、このアルゴリズムを用いて、トレーニングデータから非線形空間変換を適応的に学習するニューラルネットワークアーキテクチャを開発し、この学習された変換の一般的な非凸構造に対応するために収束を継承する。
数値的な結果から,提案手法は様々な画像再構成問題に対して,効率と精度で最先端の手法よりも優れていた。
関連論文リスト
- Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Deep unfolding as iterative regularization for imaging inverse problems [6.485466095579992]
ディープ展開法は、反復アルゴリズムを通じてディープニューラルネットワーク(DNN)の設計を導く。
展開されたDNNが安定して収束することを証明する。
提案手法が従来の展開法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-24T07:38:47Z) - An Inexact Augmented Lagrangian Algorithm for Training Leaky ReLU Neural
Network with Group Sparsity [13.27709100571336]
近年,グループ正規化期間を持つリーク型ReLUネットワークが広く利用されている。
定常点を決定論的に計算する手法が存在しないことを示す。
本稿では,新しいモデルを解くための不正確な拡張ラグランジアンアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-11T11:53:15Z) - Accelerated Graph Learning from Smooth Signals [10.426964757656743]
高速な双対ベース近位勾配アルゴリズムは, 強い凸, 滑らか性に則ったネットワーク逆問題に対処するために開発された。
既存の解法とは異なり、新しい反復法はグローバル収束率を保証するとともに、追加のステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2021-10-19T01:02:57Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z) - Learnable Descent Algorithm for Nonsmooth Nonconvex Image Reconstruction [4.2476585678737395]
非滑らかな非画像再構成問題を解決するための一般学習ベースのフレームワークを提案する。
提案手法は,画像における画像問題における効率のよい収束状態であることを示す。
論文 参考訳(メタデータ) (2020-07-22T07:59:07Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。