論文の概要: Invertible generative models for inverse problems: mitigating representation error and dataset bias
- arxiv url: http://arxiv.org/abs/1905.11672v5
- Date: Mon, 27 Oct 2025 02:35:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-02 19:27:00.315539
- Title: Invertible generative models for inverse problems: mitigating representation error and dataset bias
- Title(参考訳): 逆問題に対する可逆生成モデル:表現誤差とデータセットバイアスの緩和
- Authors: Muhammad Asim, Mara Daniels, Oscar Leong, Ali Ahmed, Paul Hand,
- Abstract要約: 訓練された生成モデルは、撮像における逆問題の前兆として顕著な性能を示した。
設計による表現誤差がゼロな非可逆ニューラルネットワークは、逆問題における効果的な自然信号先行処理であることを示す。
- 参考スコア(独自算出の注目度): 6.07645721775351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trained generative models have shown remarkable performance as priors for inverse problems in imaging -- for example, Generative Adversarial Network priors permit recovery of test images from 5-10x fewer measurements than sparsity priors. Unfortunately, these models may be unable to represent any particular image because of architectural choices, mode collapse, and bias in the training dataset. In this paper, we demonstrate that invertible neural networks, which have zero representation error by design, can be effective natural signal priors at inverse problems such as denoising, compressive sensing, and inpainting. Given a trained generative model, we study the empirical risk formulation of the desired inverse problem under a regularization that promotes high likelihood images, either directly by penalization or algorithmically by initialization. For compressive sensing, invertible priors can yield higher accuracy than sparsity priors across almost all undersampling ratios, and due to their lack of representation error, invertible priors can yield better reconstructions than GAN priors for images that have rare features of variation within the biased training set, including out-of-distribution natural images. We additionally compare performance for compressive sensing to unlearned methods, such as the deep decoder, and we establish theoretical bounds on expected recovery error in the case of a linear invertible model.
- Abstract(参考訳): トレーニングされた生成モデルは、画像の逆問題の前兆として顕著なパフォーマンスを示している。例えば、ジェネレーティブ・アドバイサル・ネットワークの前兆は、スパーシティ前の5~10倍の少ない測定値からテスト画像の回復を許可している。
残念なことに、これらのモデルは、トレーニングデータセットのアーキテクチャ上の選択、モード崩壊、バイアスのために、特定のイメージを表現できない可能性がある。
本稿では, 設計による表現誤差がゼロな非可逆ニューラルネットワークが, 消音, 圧縮センシング, 塗装などの逆問題において, 効果的な自然信号先行処理が可能であることを実証する。
学習された生成モデルが与えられた場合,本研究では,初期化によって直接,あるいはアルゴリズム的に,高い可能性の画像を促進する正規化の下で,所望の逆問題に対する経験的リスクの定式化について検討する。
圧縮センシングでは、非可逆前の画像は、ほとんどすべてのアンダーサンプル比のスペーサリティ前の画像よりも高い精度を得ることができ、その表現誤差の欠如により、非可逆前の画像は、非分布の自然画像を含むバイアス付きトレーニングセット内で稀な特徴を持つ画像に対して、GAN前の画像よりもより良い再構成が得られる。
さらに, 圧縮センシングの性能を, 深部復号器のような未学習の手法と比較し, 線形可逆モデルの場合の予測回復誤差に関する理論的境界を確立する。
関連論文リスト
- Solving Inverse Problems with FLAIR [68.87167940623318]
本稿では,フローベース生成モデルを逆問題に先立って活用する学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - Fast constrained sampling in pre-trained diffusion models [80.99262780028015]
任意の制約下で高速で高品質な生成を可能にするアルゴリズムを提案する。
我々の手法は、最先端のトレーニングフリー推論手法に匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Generative Flows as a General Purpose Solution for Inverse Problems [0.0]
高確率再構成を直接生成する正規化項を提案する。
画像のデノイング、画像のデブロアリング、画像のインペインティング、画像のカラー化について評価を行った。
論文 参考訳(メタデータ) (2021-10-25T21:56:44Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Using Deep Image Priors to Generate Counterfactual Explanations [38.62513524757573]
ディープ画像先行(DIP)は、潜在表現エンコーディングからプレイメージを得るために用いられる。
本稿では,予測器と共同で学習した補助損失推定器に基づく新たな正規化戦略を提案する。
論文 参考訳(メタデータ) (2020-10-22T20:40:44Z) - Reducing the Representation Error of GAN Image Priors Using the Deep Decoder [16.580772758959245]
本稿では,GANプリエントとディープデコーダの線形結合としてイメージをモデル化することにより,GANプリエントの表現誤差を低減する手法を提案する。
圧縮センシングと画像スーパーレゾリューションのために、我々のハイブリッドモデルは、GANプリエントとディープデコーダを別々に比較すると、PSNRが常に高い値を示す。
論文 参考訳(メタデータ) (2020-01-23T18:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。