論文の概要: Learning convex regularizers satisfying the variational source condition
for inverse problems
- arxiv url: http://arxiv.org/abs/2110.12520v1
- Date: Sun, 24 Oct 2021 20:05:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:25:37.144001
- Title: Learning convex regularizers satisfying the variational source condition
for inverse problems
- Title(参考訳): 逆問題に対する変動源条件を満たす学習凸正則化器
- Authors: Subhadip Mukherjee, Carola-Bibiane Sch\"onlieb, and Martin Burger
- Abstract要約: 本稿では,データ駆動型凸正則化学習のための対向凸正則化(ACR)を提案する。
我々は,学習中の変動源条件(SC)を利用して,学習した凸正規化器に対応する変動損失を最小限に抑える。
結果として得られる正則化器 (ACR-SC) は、ACRと同等に動作するが、ACRとは異なり、定量的収束率の推定が伴う。
- 参考スコア(独自算出の注目度): 4.2917182054051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational regularization has remained one of the most successful approaches
for reconstruction in imaging inverse problems for several decades. With the
emergence and astonishing success of deep learning in recent years, a
considerable amount of research has gone into data-driven modeling of the
regularizer in the variational setting. Our work extends a recently proposed
method, referred to as adversarial convex regularization (ACR), that seeks to
learn data-driven convex regularizers via adversarial training in an attempt to
combine the power of data with the classical convex regularization theory.
Specifically, we leverage the variational source condition (SC) during training
to enforce that the ground-truth images minimize the variational loss
corresponding to the learned convex regularizer. This is achieved by adding an
appropriate penalty term to the ACR training objective. The resulting
regularizer (abbreviated as ACR-SC) performs on par with the ACR, but unlike
ACR, comes with a quantitative convergence rate estimate.
- Abstract(参考訳): 変分正規化は数十年間、逆問題の画像化において最も成功したレコンストラクションの1つであった。
近年のディープラーニングの出現と驚くべき成功により、変動環境における正規化子のデータ駆動モデリングにおいて、かなりの研究が進められている。
本研究は,adversarial convex regularization (acr) と呼ばれる最近提案された手法を拡張し,データパワーと古典的な凸正規化理論を組み合わせるために,adversarial trainingを通じてデータ駆動凸正規化子を学習することを目的とした。
具体的には,学習中の変分源条件(sc)を利用して,学習された凸正規化器に対応する変分損失を最小限に抑える。
これは、ACRトレーニング目標に適切なペナルティ項を追加することで達成される。
結果として得られる正則化器(ACR-SC)は、ACRと同等に作用するが、ACRとは異なり、定量的収束率推定が伴う。
関連論文リスト
- Risk and cross validation in ridge regression with correlated samples [72.59731158970894]
我々は,データポイントが任意の相関関係を持つ場合,リッジ回帰のイン・オブ・サンプルリスクのトレーニング例を提供する。
さらに、テストポイントがトレーニングセットと非自明な相関を持ち、時系列予測で頻繁に発生するような場合まで分析を拡張します。
我々は多種多様な高次元データにまたがって理論を検証する。
論文 参考訳(メタデータ) (2024-08-08T17:27:29Z) - Convex Latent-Optimized Adversarial Regularizers for Imaging Inverse
Problems [8.33626757808923]
本稿では,新しいデータ駆動型パラダイムであるConvex Latent-d Adrial Regularizers (CLEAR)を紹介する。
CLEARは、ディープラーニング(DL)と変分正規化の融合を表す。
本手法は従来型のデータ駆動手法と従来型の正規化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-17T12:06:04Z) - Dynamic Residual Classifier for Class Incremental Learning [4.02487511510606]
古いクラスと新しいクラスの間に不均衡なサンプル番号があれば、学習はバイアスを受けることができる。
既存のCIL手法は、例えば、調整された損失やデータ再サンプリング手法など、Longtailed (LT) 認識技術を利用する。
この挑戦的なシナリオに対処するために、新しい動的残留適応(DRC)を提案する。
論文 参考訳(メタデータ) (2023-08-25T11:07:11Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Generalized Real-World Super-Resolution through Adversarial Robustness [107.02188934602802]
本稿では,実世界のSRに取り組むために,敵攻撃の一般化能力を活用したロバスト超解法を提案する。
我々の新しいフレームワークは、現実世界のSR手法の開発においてパラダイムシフトをもたらす。
単一のロバストモデルを使用することで、実世界のベンチマークで最先端の特殊な手法より優れています。
論文 参考訳(メタデータ) (2021-08-25T22:43:20Z) - Parallelized Reverse Curriculum Generation [62.25453821794469]
強化学習では, エージェントが, まばらな報酬のために, 特定の一連の行動を必要とするタスクをマスターすることが困難である。
逆カリキュラム生成(RCG)は、エージェントが学習するカリキュラムを自動的に生成する逆拡張アプローチを提供する。
本稿では,複数のACペアを同時に訓練し,定期的に批判を交換する並列化手法を提案する。
論文 参考訳(メタデータ) (2021-08-04T15:58:35Z) - End-to-end reconstruction meets data-driven regularization for inverse
problems [2.800608984818919]
本稿では,不適切な逆問題に対するエンド・ツー・エンドの再構成演算子を学習するための教師なしアプローチを提案する。
提案手法は,古典的変分フレームワークと反復的アンローリングを組み合わせたものである。
我々は,X線CT(Computerd tomography)の例で,最先端の教師なし手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T12:05:06Z) - Learned convex regularizers for inverse problems [3.294199808987679]
本稿では,逆問題に対する正規化器として,データ適応型入力ニューラルネットワーク(ICNN)を学習することを提案する。
パラメータ空間における単調な誤差を反復で減少させる部分次アルゴリズムの存在を実証する。
提案した凸正則化器は, 逆問題に対する最先端のデータ駆動技術に対して, 少なくとも競争力があり, 時には優位であることを示す。
論文 参考訳(メタデータ) (2020-08-06T18:58:35Z) - Total Deep Variation: A Stable Regularizer for Inverse Problems [71.90933869570914]
本稿では,データ駆動型汎用全深度変動正規化器について紹介する。
コアでは、畳み込みニューラルネットワークが複数のスケールや連続したブロックで局所的な特徴を抽出する。
我々は多数の画像処理タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T21:54:15Z) - Supervised Learning of Sparsity-Promoting Regularizers for Denoising [13.203765985718205]
本稿では,画像復調のための疎度促進型正規化器の教師あり学習法を提案する。
実験の結果,提案手法はよく知られた正規化器よりも優れた演算子を学習できることがわかった。
論文 参考訳(メタデータ) (2020-06-09T21:38:05Z) - Total Deep Variation for Linear Inverse Problems [71.90933869570914]
本稿では,近年のアーキテクチャ設計パターンを深層学習から活用する,学習可能な汎用正規化手法を提案する。
本稿では,古典的画像復元と医用画像再構成問題に対する最先端の性能について述べる。
論文 参考訳(メタデータ) (2020-01-14T19:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。