論文の概要: Joint Demosaicking and Denoising in the Wild: The Case of Training Under
Ground Truth Uncertainty
- arxiv url: http://arxiv.org/abs/2101.04442v1
- Date: Tue, 12 Jan 2021 12:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:37:13.920585
- Title: Joint Demosaicking and Denoising in the Wild: The Case of Training Under
Ground Truth Uncertainty
- Title(参考訳): 野生における共同脱塩・脱鼻--地底不確かさ下での訓練を事例として
- Authors: Jierun Chen, Song Wen, S.-H. Gary Chan
- Abstract要約: 本研究は,野生における共同デモサイクリングのための新しい学習フレームワークwild-jddを提案する。
トレーニングデータの基底的真理が現実の完全な反映であると一般的に仮定する先行研究とは対照的に、ここでは野生における基底的真理の不確かさのより一般的な不完全なケースを考察する。
- 参考スコア(独自算出の注目度): 2.0088802641040604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image demosaicking and denoising are the two key fundamental steps in digital
camera pipelines, aiming to reconstruct clean color images from noisy luminance
readings. In this paper, we propose and study Wild-JDD, a novel learning
framework for joint demosaicking and denoising in the wild. In contrast to
previous works which generally assume the ground truth of training data is a
perfect reflection of the reality, we consider here the more common imperfect
case of ground truth uncertainty in the wild. We first illustrate its
manifestation as various kinds of artifacts including zipper effect, color
moire and residual noise. Then we formulate a two-stage data degradation
process to capture such ground truth uncertainty, where a conjugate prior
distribution is imposed upon a base distribution. After that, we derive an
evidence lower bound (ELBO) loss to train a neural network that approximates
the parameters of the conjugate prior distribution conditioned on the degraded
input. Finally, to further enhance the performance for out-of-distribution
input, we design a simple but effective fine-tuning strategy by taking the
input as a weakly informative prior. Taking into account ground truth
uncertainty, Wild-JDD enjoys good interpretability during optimization.
Extensive experiments validate that it outperforms state-of-the-art schemes on
joint demosaicking and denoising tasks on both synthetic and realistic raw
datasets.
- Abstract(参考訳): デジタルカメラパイプラインにおける2つの基本的なステップは、ノイズの多い輝度からクリーンなカラーイメージを再構築することである。
本稿では,野生における共同解体・復調のための新しい学習フレームワークであるWild-JDDを提案し,研究する。
トレーニングデータの基底的真理が現実の完全な反映であると一般的に仮定する先行研究とは対照的に、ここでは野生における基底的真理の不確かさのより一般的な不完全なケースを考察する。
まず, ジッパー効果, カラーモアレ, 残留雑音など, 様々な種類の人工物として現れることを示す。
次に,2段階データ分解過程を定式化し,基底分布に共役事前分布を課すような基礎的真理不確かさを捉える。
その後、劣化した入力に基づいて条件付けられた共役事前分布のパラメータを近似するニューラルネットワークを訓練するために、下限値(elbo)損失の証拠を導出する。
最後に, 分散型入力の性能をさらに高めるために, 入力を弱い情報量優先にすることで, 単純かつ効果的な微調整戦略を考案する。
基礎的な真実の不確実性を考慮すると、Wild-JDDは最適化の間、よく解釈可能である。
広範な実験によって、合成データセットとリアルデータセットの両方で、共同デモサイクリングとデノイジングタスクで最先端のスキームを上回ることが検証された。
関連論文リスト
- Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - DPMesh: Exploiting Diffusion Prior for Occluded Human Mesh Recovery [71.6345505427213]
DPMeshは、人間のメッシュリカバリを排除した革新的なフレームワークである。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルに埋め込まれた対象構造と空間的関係について、より深い拡散に乗じる。
論文 参考訳(メタデータ) (2024-04-01T18:59:13Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Confidence-based Reliable Learning under Dual Noises [46.45663546457154]
ディープニューラルネットワーク(DNN)は、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、オープンワールドから収集されたデータはノイズによって必然的に汚染され、学習されたモデルの有効性を著しく損なう可能性がある。
データノイズ下でDNNを確実に訓練する様々な試みがなされているが、ラベルに存在するノイズと画像に存在するノイズを別々に考慮している。
この作業は、ジョイント(イメージ、ラベル)ノイズの下での信頼性学習のための、最初の統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-10T07:50:34Z) - Linear Combinations of Patches are Unreasonably Effective for Single-Image Denoising [5.893124686141782]
ディープニューラルネットワークは、画像のノイズ化に革命を起こし、大幅な精度向上を実現している。
画像先行を外部から学習する必要性を軽減するため、入力ノイズ画像の分析のみに基づいて、単画像方式で復調を行う。
本研究は, この制約下でのデノナイズのためのパッチの線形結合の有効性について検討する。
論文 参考訳(メタデータ) (2022-12-01T10:52:03Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - Self-supervision versus synthetic datasets: which is the lesser evil in
the context of video denoising? [11.0189148044343]
監督されたトレーニングは、画像やビデオのデノベーションの最先端の結果につながった。
入手が難しいノイズとクリーンのペアの大規模なデータセットが必要です。
いくつかの自己教師型フレームワークは、ノイズの多いデータに基づいて、そのようなデノベーションネットワークを直接訓練するために提案されている。
論文 参考訳(メタデータ) (2022-04-25T08:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。