論文の概要: DestripeCycleGAN: Stripe Simulation CycleGAN for Unsupervised Infrared
Image Destriping
- arxiv url: http://arxiv.org/abs/2402.09101v1
- Date: Wed, 14 Feb 2024 11:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 15:57:48.907567
- Title: DestripeCycleGAN: Stripe Simulation CycleGAN for Unsupervised Infrared
Image Destriping
- Title(参考訳): DestripeCycleGAN: 教師なし赤外線画像削除のためのStripe Simulation CycleGAN
- Authors: Shiqi Yang, Hanlin Qin, Shuai Yuan, Xiang Yan, Hossein Rahmani
- Abstract要約: CycleGANは、教師なし画像復元の先進的なアプローチであることが証明されている。
DestripeCycleGANという単一フレーム赤外線画像デストリップのための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.797480466799222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CycleGAN has been proven to be an advanced approach for unsupervised image
restoration. This framework consists of two generators: a denoising one for
inference and an auxiliary one for modeling noise to fulfill cycle-consistency
constraints. However, when applied to the infrared destriping task, it becomes
challenging for the vanilla auxiliary generator to consistently produce
vertical noise under unsupervised constraints. This poses a threat to the
effectiveness of the cycle-consistency loss, leading to stripe noise residual
in the denoised image. To address the above issue, we present a novel framework
for single-frame infrared image destriping, named DestripeCycleGAN. In this
model, the conventional auxiliary generator is replaced with a priori stripe
generation model (SGM) to introduce vertical stripe noise in the clean data,
and the gradient map is employed to re-establish cycle-consistency. Meanwhile,
a Haar wavelet background guidance module (HBGM) has been designed to minimize
the divergence of background details between the different domains. To preserve
vertical edges, a multi-level wavelet U-Net (MWUNet) is proposed as the
denoising generator, which utilizes the Haar wavelet transform as the sampler
to decline directional information loss. Moreover, it incorporates the group
fusion block (GFB) into skip connections to fuse the multi-scale features and
build the context of long-distance dependencies. Extensive experiments on real
and synthetic data demonstrate that our DestripeCycleGAN surpasses the
state-of-the-art methods in terms of visual quality and quantitative
evaluation. Our code will be made public at
https://github.com/0wuji/DestripeCycleGAN.
- Abstract(参考訳): CycleGANは、教師なし画像復元の先進的なアプローチであることが証明されている。
このフレームワークは2つのジェネレータで構成されており、推論のための推論と、サイクル・コンシスタンス制約を満たすためにノイズをモデル化するための補助である。
しかし, 赤外線デトリップ作業に適用すると, バニラ補助発電機は教師なしの制約下で常に垂直ノイズを発生することが困難になる。
これは、サイクルコンシステンシー損失の有効性を脅かし、分断された画像にストライプノイズが残ることにつながる。
上記の問題に対処するために,DestripeCycleGANという単一フレーム赤外線画像デストリップのための新しいフレームワークを提案する。
このモデルでは、従来の補助発電機をプリ・ストライプ生成モデル(SGM)に置き換えてクリーンデータに垂直ストライプノイズを導入し、勾配マップを用いてサイクル整合性を再確立する。
一方,Hear Waveletバックグラウンドガイダンスモジュール(HBGM)は,異なるドメイン間の背景詳細のばらつきを最小限に抑えるように設計されている。
垂直エッジを保持するために,サンプルとしてHaarウェーブレット変換を用いて方向情報損失を減少させるマルチレベルウェーブレットU-Net(MWUNet)を提案する。
さらに、グループ融合ブロック(GFB)をスキップ接続に組み込んで、マルチスケール機能をフューズし、長距離依存関係のコンテキストを構築する。
実データおよび合成データに関する広範囲な実験により,我々は視覚品質と定量的評価の点で最先端の手法を超越していることが示された。
私たちのコードはhttps://github.com/0wuji/DestripeCycleGANで公開されます。
関連論文リスト
- Diffusion-Aided Joint Source Channel Coding For High Realism Wireless Image Transmission [24.372996233209854]
DiffJSCCは条件拡散復調法により高現実性画像を生成する新しいフレームワークである。
768x512ピクセルのコダック画像を3072のシンボルで再現できる。
論文 参考訳(メタデータ) (2024-04-27T00:12:13Z) - SGDFormer: One-stage Transformer-based Architecture for Cross-Spectral Stereo Image Guided Denoising [11.776198596143931]
本稿では,SGDFormer というワンステージトランスフォーマベースアーキテクチャを提案する。
我々の変圧器ブロックは、ノイズロストクロスアテンション(NRCA)モジュールと空間変化型特徴融合(SVFF)モジュールを含む。
SGDFormerは、上記の設計により、微細な構造でアーチファクトフリーなイメージを復元し、さまざまなデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-03-30T12:55:19Z) - Unsupervised Denoising for Signal-Dependent and Row-Correlated Imaging Noise [54.0185721303932]
本稿では,行関連の画像ノイズを処理できる,教師なしのディープラーニングベースデノイザについて紹介する。
提案手法では,特殊設計の自己回帰デコーダを備えた変分オートエンコーダを用いる。
本手法では,事前学習した雑音モデルを必要としないため,雑音のないデータを用いてスクラッチから訓練することができる。
論文 参考訳(メタデータ) (2023-10-11T20:48:20Z) - Reconstruct-and-Generate Diffusion Model for Detail-Preserving Image
Denoising [16.43285056788183]
再構成・生成拡散モデル(Reconstruct-and-Generate Diffusion Model, RnG)と呼ばれる新しい手法を提案する。
提案手法は, 再構成型復調ネットワークを利用して, 基礎となるクリーン信号の大半を復元する。
拡散アルゴリズムを用いて残留する高周波の詳細を生成し、視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-09-19T16:01:20Z) - DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior [70.46245698746874]
DiffBIRは、視覚の異なる画像復元タスクを処理できる一般的な修復パイプラインである。
DiffBIRは, ブラインド画像復元問題を, 1) 劣化除去: 画像に依存しない内容の除去; 2) 情報再生: 失われた画像内容の生成の2段階に分離する。
第1段階では, 修復モジュールを用いて劣化を除去し, 高忠実度復元結果を得る。
第2段階では、潜伏拡散モデルの生成能力を活用して現実的な詳細を生成するIRControlNetを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:11:52Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Degradation-Noise-Aware Deep Unfolding Transformer for Hyperspectral
Image Denoising [9.119226249676501]
ハイパースペクトル画像(HSI)は、帯域幅が狭いため、ノイズが多いことが多い。
HSIデータキューブのノイズを低減するため、モデル駆動型と学習型の両方の復調アルゴリズムが提案されている。
本稿では,これらの問題に対処するDNA-Net(Degradation-Noise-Aware Unfolding Network)を提案する。
論文 参考訳(メタデータ) (2023-05-06T13:28:20Z) - CVF-SID: Cyclic multi-Variate Function for Self-Supervised Image
Denoising by Disentangling Noise from Image [53.76319163746699]
そこで本研究では,CVF-SIDと呼ばれる,新しい,強力な自己監督型デノベーション手法を提案する。
CVF-SIDは、様々な自己教師付き損失項を活用することにより、入力からクリーンな画像とノイズマップを分離することができる。
最先端の自己監督型画像復調性能を達成し、既存のアプローチに匹敵する。
論文 参考訳(メタデータ) (2022-03-24T11:59:28Z) - Cycle-free CycleGAN using Invertible Generator for Unsupervised Low-Dose
CT Denoising [33.79188588182528]
CycleGANは低線量X線CT(CT)画像に対して高性能で高速なデノナイジングを提供する。
cycleganは2つのジェネレータと2つの識別器を必要とする。
本論文では,単一発生器と識別器から構成されるサイクルフリーのサイクルGANアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2021-04-17T13:23:36Z) - Conditioning Trick for Training Stable GANs [70.15099665710336]
本稿では,GANトレーニング中の不安定性問題に対応するため,ジェネレータネットワークに正規性から逸脱する条件付け手法を提案する。
我々は、生成元をシュア分解のスペクトル領域で計算された実サンプルの正規化関数から逸脱するように強制する。
論文 参考訳(メタデータ) (2020-10-12T16:50:22Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。