論文の概要: Regularizing (Stabilizing) Deep Learning Based Reconstruction Algorithms
- arxiv url: http://arxiv.org/abs/2108.13551v1
- Date: Sat, 21 Aug 2021 23:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-05 10:24:48.726275
- Title: Regularizing (Stabilizing) Deep Learning Based Reconstruction Algorithms
- Title(参考訳): ディープラーニングに基づく正規化(安定化)再構成アルゴリズム
- Authors: Abinash Nayak
- Abstract要約: 逆問題(inverse problem)が不適切であることはよく知られており、それらを意味のある方法で解決するためには正規化メソッドを使わなければならない。
近年、古典的正規化再構成アプローチは(深層学習に基づく)学習的再構成アルゴリズムによって非分類化されている。
そこで我々は,そのような(不安定な)学習的再構築手法を安定化し,正規化解を復元する,一定の正規化手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: It's well-known that inverse problems are ill-posed and to solve them
meaningfully one has to employ regularization methods. Traditionally, popular
regularization methods have been the penalized Variational approaches. In
recent years, the classical regularized-reconstruction approaches have been
outclassed by the (deep-learning-based) learned reconstruction algorithms.
However, unlike the traditional regularization methods, the theoretical
underpinnings, such as stability and regularization, have been insufficient for
such learned reconstruction algorithms. Hence, the results obtained from such
algorithms, though empirically outstanding, can't always be completely trusted,
as they may contain certain instabilities or (hallucinated) features arising
from the learned process. In fact, it has been shown that such learning
algorithms are very susceptible to small (adversarial) noises in the data and
can lead to severe instabilities in the recovered solution, which can be quite
different than the inherent instabilities of the ill-posed (inverse) problem.
Whereas, the classical regularization methods can handle such (adversarial)
noises very well and can produce stable recovery. Here, we try to present
certain regularization methods to stabilize such (unstable) learned
reconstruction methods and recover a regularized solution, even in the presence
of adversarial noises. For this, we need to extend the classical notion of
regularization and incorporate it in the learned reconstruction algorithms. We
also present some regularization techniques to regularize two of the most
popular learning reconstruction algorithms, the Learned Post-Processing
Reconstruction and the Learned Unrolling Reconstruction.
- Abstract(参考訳): 逆問題は不適切であり、それを有意義に解くには正規化法を使わなければならないことはよく知られている。
伝統的に、一般的な正規化法はペナルティ化された変分アプローチである。
近年、古典的正規化再構成アプローチは(深層学習に基づく)学習的再構成アルゴリズムによって非分類化されている。
しかし、従来の正則化法とは異なり、安定性や正則化といった理論的な基盤は、そのような学習された再構成アルゴリズムでは不十分である。
したがって、これらのアルゴリズムから得られた結果は、経験的に優れているが、学習プロセスから生じる特定の不安定性や(ハロゲン化)特徴を含むため、常に完全に信頼されるとは限らない。
実際、このような学習アルゴリズムは、データ内の小さな(逆)ノイズに非常に影響を受けやすく、回収された解に深刻な不安定性をもたらすことが示されており、これは、不適切な(逆)問題の本質的な不安定性とは全く異なる可能性がある。
しかし、古典正規化法はそのような(逆)ノイズをうまく処理することができ、安定した回復をもたらす。
そこで我々は,このような(不安定な)学習的再構成手法を安定化し,対向雑音の存在下でも正規化解を回復するための一定の正規化手法を提案する。
そのため、古典的な正規化の概念を拡張し、学習された再構成アルゴリズムに組み込む必要がある。
また,最も一般的な学習再建アルゴリズムである学習後再構築と学習後再構築の2つを正規化するための正規化手法を提案する。
関連論文リスト
- The Differentiable Feasibility Pump [49.55771920271201]
本稿では,従来の実現可能性ポンプとその追随点の多くを,特定のパラメータを持つ勾配差アルゴリズムとみなすことができることを示す。
この再解釈の中心的な側面は、伝統的なアルゴリズムがそのコストに関して線形緩和の解を区別することを観察することである。
論文 参考訳(メタデータ) (2024-11-05T22:26:51Z) - Why do we regularise in every iteration for imaging inverse problems? [0.29792392019703945]
正則化は、画像逆問題を解決する反復法で一般的に用いられる。
ProxSkipは正規化ステップをランダムにスキップし、収束に影響を与えることなく反復アルゴリズムの計算時間を短縮する。
論文 参考訳(メタデータ) (2024-11-01T15:50:05Z) - Unleashing the Potential of Regularization Strategies in Learning with
Noisy Labels [65.92994348757743]
クロスエントロピー損失を用いた単純なベースラインと、広く使われている正規化戦略を組み合わせることで、最先端の手法より優れていることを示す。
この結果から,正規化戦略の組み合わせは,ノイズラベルを用いた学習の課題に対処する上で,複雑なアルゴリズムよりも効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-07-11T05:58:20Z) - Iterative regularization in classification via hinge loss diagonal descent [12.684351703991965]
反復正規化(英: Iterative regularization)は、最近機械学習で人気になった正規化理論における古典的な考え方である。
本稿では,分類の文脈における反復正則化に着目した。
論文 参考訳(メタデータ) (2022-12-24T07:15:26Z) - When Does Re-initialization Work? [50.70297319284022]
再初期化は、最近の研究における一般化を改善するために観察されている。
ディープラーニングの実践では広く採用されておらず、最先端のトレーニングプロトコルでもよく使用されている。
このことは、再初期化がいつ動作するのか、また、正規化技術と一緒に使うべきかという疑問を提起する。
論文 参考訳(メタデータ) (2022-06-20T21:23:15Z) - Learning Hidden Markov Models When the Locations of Missing Observations
are Unknown [54.40592050737724]
本研究では、未知の観測位置を持つデータからHMMを学習する際の一般的な問題について考察する。
我々は、下層の鎖の構造に関する仮定を一切必要としない再構成アルゴリズムを提供する。
適切な仕様の下では、プロセスのダイナミクスを再構築でき、また、見当たらない観測位置が分かっていたとしても、その有効性を示す。
論文 参考訳(メタデータ) (2022-03-12T22:40:43Z) - Iterative regularization for low complexity regularizers [18.87017835436693]
反復正則化は、最適化アルゴリズムの暗黙のバイアスを利用して不正な問題を正則化する。
非滑らかかつ非凸な関数によって記述されるバイアスを処理できる最初の反復正則化手法を提案し,研究する。
論文 参考訳(メタデータ) (2022-02-01T14:09:00Z) - Instabilities in Plug-and-Play (PnP) algorithms from a learned denoiser [0.0]
逆問題には問題があり、意味のある解決には正規化手法を使わなければならないことはよく知られている。
近年、古典正規化のアプローチは、いわゆるプラグ・アンド・プレイ・アルゴリズムによって非分類化されている。
私たちはそれを勾配を示します。
アルゴリズムは、事前訓練されたディープラーニングベース(DnCNN)デノイザを使用する場合、幻覚的特徴を誘導することができる。
論文 参考訳(メタデータ) (2021-08-17T05:55:34Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Continual Deep Learning by Functional Regularisation of Memorable Past [95.97578574330934]
知的システムにとって、新しいスキルを継続的に学習することは重要だが、標準的なディープラーニング手法は、過去の破滅的な忘れ物に悩まされている。
本稿では, 過去の記憶に残るいくつかの例を, 忘れることを避けるために活用する機能正規化手法を提案する。
提案手法は,標準ベンチマーク上での最先端性能を実現し,正規化とメモリベースの手法を自然に組み合わせた生涯学習の新たな方向性を開拓する。
論文 参考訳(メタデータ) (2020-04-29T10:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。