論文の概要: Variational Regularization in Inverse Problems and Machine Learning
- arxiv url: http://arxiv.org/abs/2112.04591v1
- Date: Wed, 8 Dec 2021 21:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 23:51:24.801961
- Title: Variational Regularization in Inverse Problems and Machine Learning
- Title(参考訳): 逆問題における変分正規化と機械学習
- Authors: Martin Burger
- Abstract要約: 本稿では,変分正規化法の基礎と最近の発展について述べる。
また、機械学習における変分正規化についても論じ、古典正規化理論といくつかの関係を考察する。
- 参考スコア(独自算出の注目度): 2.360534864805446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper discusses basic results and recent developments on variational
regularization methods, as developed for inverse problems. In a typical setup
we review basic properties needed to obtain a convergent regularization scheme
and further discuss the derivation of quantitative estimates respectively
needed ingredients such as Bregman distances for convex functionals.
In addition to the approach developed for inverse problems we will also
discuss variational regularization in machine learning and work out some
connections to the classical regularization theory. In particular we will
discuss a reinterpretation of machine learning problems in the framework of
regularization theory and a reinterpretation of variational methods for inverse
problems in the framework of risk minimization. Moreover, we establish some
previously unknown connections between error estimates in Bregman distances and
generalization errors.
- Abstract(参考訳): 本稿では,逆問題に対して開発された変分正規化法の基礎と最近の発展について論じる。
典型的な構成では、収束正規化スキームを得るために必要となる基本的な性質を考察し、さらに、凸汎関数のブレグマン距離など、それぞれに必要な量的推定の導出について論じる。
逆問題のために開発されたアプローチに加えて、機械学習における変分正規化についても論じ、古典正規化理論といくつかの関係を論じる。
特に、正規化理論の枠組みにおける機械学習問題の再解釈とリスク最小化の枠組みにおける逆問題に対する変分法の再解釈について論じる。
さらに,Bregman距離における誤差推定と一般化誤差との間には,これまで知られていなかったいくつかの接続を確立する。
関連論文リスト
- Learned Regularization for Inverse Problems: Insights from a Spectral Model [1.4963011898406866]
この章は、逆問題に対する最先端の学習アプローチに関する理論的に確立された調査を提供する。
正規化法とそれらの収束を、基礎となるデータ分布の観点から拡張した定義を与える。
論文 参考訳(メタデータ) (2023-12-15T14:50:14Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Provably Convergent Algorithms for Solving Inverse Problems Using
Generative Models [47.208080968675574]
より完全な理解を伴う逆問題における生成モデルの利用について検討する。
我々は様々な逆問題を解くための実験結果を用いて主張を支持する。
我々は,モデルミスマッチ(生成前処理が必ずしも適用されない状況)を処理する手法の拡張を提案する。
論文 参考訳(メタデータ) (2021-05-13T15:58:27Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Information-Theoretic Bounds on the Moments of the Generalization Error
of Learning Algorithms [19.186110989897738]
一般化エラー境界は、機械学習モデルの性能を理解するために重要である。
本稿では,機械学習モデルの一般化動作を,一般化誤差モーメントに対する特徴付け(バウンド)に基づいてより洗練された分析を行う。
論文 参考訳(メタデータ) (2021-02-03T11:38:00Z) - Model-Aware Regularization For Learning Approaches To Inverse Problems [11.314492463814817]
本稿では,逆問題に適用可能なディープラーニング手法の一般化誤差の解析を行う。
本稿では、フォワードマップの知識を活用してネットワークの一般化を改善する「プラグ・アンド・プレイ」レギュラーを提案する。
我々は,他の最先端手法に対するモデル認識型ディープラーニングアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T21:59:03Z) - Total Deep Variation: A Stable Regularizer for Inverse Problems [71.90933869570914]
本稿では,データ駆動型汎用全深度変動正規化器について紹介する。
コアでは、畳み込みニューラルネットワークが複数のスケールや連続したブロックで局所的な特徴を抽出する。
我々は多数の画像処理タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T21:54:15Z) - Total Deep Variation for Linear Inverse Problems [71.90933869570914]
本稿では,近年のアーキテクチャ設計パターンを深層学習から活用する,学習可能な汎用正規化手法を提案する。
本稿では,古典的画像復元と医用画像再構成問題に対する最先端の性能について述べる。
論文 参考訳(メタデータ) (2020-01-14T19:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。