論文の概要: Deep synthesis regularization of inverse problems
- arxiv url: http://arxiv.org/abs/2002.00155v1
- Date: Sat, 1 Feb 2020 06:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 01:19:59.003306
- Title: Deep synthesis regularization of inverse problems
- Title(参考訳): 逆問題の深い合成正則化
- Authors: Daniel Obmann, Johannes Schwab and Markus Haltmeier
- Abstract要約: 本稿では,非線形合成演算子としてニューラルネットワークを用いた深部合成正則化(DESYRE)を提案する。
提案手法は、利用可能なトレーニングデータに対して十分に調整可能な深層学習の利点を利用することができる。
本稿では,解析合成シーケンスの一部として,適切な学習戦略とともに合成ネットワークを構築するための戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, a large number of efficient deep learning methods for solving
inverse problems have been developed and show outstanding numerical
performance. For these deep learning methods, however, a solid theoretical
foundation in the form of reconstruction guarantees is missing. In contrast,
for classical reconstruction methods, such as convex variational and
frame-based regularization, theoretical convergence and convergence rate
results are well established. In this paper, we introduce deep synthesis
regularization (DESYRE) using neural networks as nonlinear synthesis operator
bridging the gap between these two worlds. The proposed method allows to
exploit the deep learning benefits of being well adjustable to available
training data and on the other hand comes with a solid mathematical foundation.
We present a complete convergence analysis with convergence rates for the
proposed deep synthesis regularization. We present a strategy for constructing
a synthesis network as part of an analysis-synthesis sequence together with an
appropriate training strategy. Numerical results show the plausibility of our
approach.
- Abstract(参考訳): 近年,逆問題に対する効率的な深層学習法が数多く開発され,優れた数値性能を示している。
しかし、これらの深層学習手法には、再建保証の形での確固たる理論的基盤が欠落している。
対照的に、凸変動やフレームベース正規化のような古典的再構成法では、理論収束と収束率の結果が十分に確立されている。
本稿では,この2つの世界のギャップを埋める非線形合成演算子としてニューラルネットワークを用いた深部合成正規化(DESYRE)を提案する。
提案手法は,利用可能なトレーニングデータに対して十分に調整可能であることによる深層学習の利点を活用し,一方,強固な数学的基盤を持つ。
提案した深部合成正則化に対する収束率を用いた完全収束解析を提案する。
本稿では,分析合成シーケンスの一部として,適切な学習戦略とともに合成ネットワークを構築するための戦略を提案する。
数値的な結果は,我々のアプローチの妥当性を示している。
関連論文リスト
- Component-based Sketching for Deep ReLU Nets [55.404661149594375]
各種タスクのためのディープネットコンポーネントに基づくスケッチ手法を開発した。
我々はディープネットトレーニングを線形経験的リスク最小化問題に変換する。
提案したコンポーネントベーススケッチは飽和関数の近似においてほぼ最適であることを示す。
論文 参考訳(メタデータ) (2024-09-21T15:30:43Z) - Low-resolution Prior Equilibrium Network for CT Reconstruction [3.5639148953570836]
本稿では,低分解能画像を導入し,ネットワークの堅牢性を改善するための効果的な正規化項を得る,新しいディープラーニングベースのCT再構成モデルを提案する。
狭角化と狭角化の両問題を実験的に検討し, ノイズ低減, コントラスト・ツー・ノイズ比, エッジ細部保存の両面において, エンド・ツー・エンドの低分解能事前平衡モデルが他の最先端手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-01-28T13:59:58Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Dictionary and prior learning with unrolled algorithms for unsupervised
inverse problems [12.54744464424354]
本稿では,二段階問題として,劣化測定による辞書と事前学習について検討する。
合成と解析の近似定式化を解くために, アンロールアルゴリズムを利用する。
論文 参考訳(メタデータ) (2021-06-11T12:21:26Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - End-to-end reconstruction meets data-driven regularization for inverse
problems [2.800608984818919]
本稿では,不適切な逆問題に対するエンド・ツー・エンドの再構成演算子を学習するための教師なしアプローチを提案する。
提案手法は,古典的変分フレームワークと反復的アンローリングを組み合わせたものである。
我々は,X線CT(Computerd tomography)の例で,最先端の教師なし手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T12:05:06Z) - Deep Equilibrium Architectures for Inverse Problems in Imaging [14.945209750917483]
ディープニューラルネットワークによるイメージングにおける逆問題に対する最近の取り組みは、最適化手法の一定数の反復に触発されたアーキテクチャを使用している。
本稿では,再構成精度を4dB PSNRに向上させた,無限の繰り返しに対応する代替手法について述べる。
論文 参考訳(メタデータ) (2021-02-16T03:49:58Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。