論文の概要: Unsupervised Training of Convex Regularizers using Maximum Likelihood Estimation
- arxiv url: http://arxiv.org/abs/2404.05445v2
- Date: Mon, 29 Jul 2024 12:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 23:37:56.080340
- Title: Unsupervised Training of Convex Regularizers using Maximum Likelihood Estimation
- Title(参考訳): 最大近似推定を用いた凸正規化器の教師なし訓練
- Authors: Hong Ye Tan, Ziruo Cai, Marcelo Pereyra, Subhadip Mukherjee, Junqi Tang, Carola-Bibiane Schönlieb,
- Abstract要約: 本稿では,雑音測定に基づいて,凸型ニューラルネットワークに基づく画像正規化項をトレーニングするために,最大限界推定を用いた教師なし手法を提案する。
実験により,提案手法は,様々な画像汚職操作者を対象とした類似の教師付きトレーニング手法と比較して,ほぼ競合する先行手法を生成することを示した。
- 参考スコア(独自算出の注目度): 12.625383613718636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imaging is a standard example of an inverse problem, where the task of reconstructing a ground truth from a noisy measurement is ill-posed. Recent state-of-the-art approaches for imaging use deep learning, spearheaded by unrolled and end-to-end models and trained on various image datasets. However, many such methods require the availability of ground truth data, which may be unavailable or expensive, leading to a fundamental barrier that can not be bypassed by choice of architecture. Unsupervised learning presents an alternative paradigm that bypasses this requirement, as they can be learned directly on noisy data and do not require any ground truths. A principled Bayesian approach to unsupervised learning is to maximize the marginal likelihood with respect to the given noisy measurements, which is intrinsically linked to classical variational regularization. We propose an unsupervised approach using maximum marginal likelihood estimation to train a convex neural network-based image regularization term directly on noisy measurements, improving upon previous work in both model expressiveness and dataset size. Experiments demonstrate that the proposed method produces priors that are near competitive when compared to the analogous supervised training method for various image corruption operators, maintaining significantly better generalization properties when compared to end-to-end methods. Moreover, we provide a detailed theoretical analysis of the convergence properties of our proposed algorithm.
- Abstract(参考訳): イメージングは逆問題の標準的な例であり、ノイズ測定から基底真理を再構築するタスクが悪用される。
近年のイメージングにおける最先端のアプローチは、非ローリングモデルとエンドツーエンドモデルによって先導され、さまざまな画像データセットでトレーニングされたディープラーニングを使用する。
しかし、そのような方法の多くは、利用できない、あるいは高価であるかもしれない地上の真理データの可用性を必要としており、アーキテクチャの選択によって回避できない根本的な障壁につながっている。
教師なし学習は、ノイズの多いデータに基づいて直接学習することができ、基礎的な真実を必要としないため、この要件を回避できる代替パラダイムを提示している。
教師なし学習に対するベイズ的アプローチの原則は、古典的変分正規化と本質的に結びついている与えられた雑音の測定に関して、限界的確率を最大化することである。
本稿では,モデル表現性およびデータセットサイズの両方において,従来よりも改善された,凸型ニューラルネットワークに基づく画像正規化項をノイズ測定に基づいてトレーニングするための,最大限界推定を用いた教師なしアプローチを提案する。
実験により, 提案手法は, 様々な画像汚濁演算子に対する類似の教師付き訓練法と比較して, ほぼ競争力のある先行性を生成し, エンドツーエンド法と比較して, より優れた一般化特性を保っていることが示された。
さらに,提案アルゴリズムの収束特性の詳細な理論的解析を行う。
関連論文リスト
- Direct Unsupervised Denoising [60.71146161035649]
教師なしのデノイザは、MMSE推定のような単一の予測を直接生成しない。
本稿では,VAEと並んで決定論的ネットワークを訓練し,中心的な傾向を直接予測するアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-27T13:02:12Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Exploring Efficient Asymmetric Blind-Spots for Self-Supervised Denoising in Real-World Scenarios [44.31657750561106]
実世界のシナリオにおけるノイズはしばしば空間的に相関しており、多くの自己教師型アルゴリズムは性能が良くない。
盲点サイズを自由に調整できる非対称可変ブラインド・スポットネットワーク(AT-BSN)を提案する。
提案手法は最先端技術を実現し,計算オーバーヘッドや視覚効果の観点から,他の自己教師付きアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-29T15:19:01Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers [111.31448606885672]
代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T08:10:13Z) - Learning Sparsity-Promoting Regularizers using Bilevel Optimization [9.18465987536469]
本稿では,信号や画像の識別のための疎結合型正規化器の教師あり学習法を提案する。
構造化された1D信号と自然画像を用いて実験したところ,提案手法はよく知られた正規化器よりも優れた演算子を学習できることがわかった。
論文 参考訳(メタデータ) (2022-07-18T20:50:02Z) - Learning Noise Transition Matrix from Only Noisy Labels via Total
Variation Regularization [88.91872713134342]
本稿では,雑音遷移行列を推定し,同時に分類器を学習する理論的基礎付け手法を提案する。
提案手法の有効性を,ベンチマークおよび実世界のデータセットを用いた実験により示す。
論文 参考訳(メタデータ) (2021-02-04T05:09:18Z) - Unsupervised Image Restoration Using Partially Linear Denoisers [2.3061446605472558]
本稿では, 非線形画像依存写像, 線形雑音依存項, 残差項の和として分解可能な構造付きデノイザのクラスを提案する。
雑音が平均値と既知分散度をゼロとする条件下では,ノイズのみを学習できることを示す。
本手法は, 学習にクリーンな画像を必要としない, 教師なし, 自己監督型ディープ・デノゲーション・モデルよりも優れている。
論文 参考訳(メタデータ) (2020-08-14T02:13:19Z) - Supervised Learning of Sparsity-Promoting Regularizers for Denoising [13.203765985718205]
本稿では,画像復調のための疎度促進型正規化器の教師あり学習法を提案する。
実験の結果,提案手法はよく知られた正規化器よりも優れた演算子を学習できることがわかった。
論文 参考訳(メタデータ) (2020-06-09T21:38:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。