論文の概要: FCL-GAN: A Lightweight and Real-Time Baseline for Unsupervised Blind
Image Deblurring
- arxiv url: http://arxiv.org/abs/2204.07820v1
- Date: Sat, 16 Apr 2022 15:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 15:14:00.666331
- Title: FCL-GAN: A Lightweight and Real-Time Baseline for Unsupervised Blind
Image Deblurring
- Title(参考訳): FCL-GAN:無監督ブラインド画像劣化のための軽量リアルタイムベースライン
- Authors: Suiyi Zhao, Zhao Zhang, Richang Hong, Mingliang Xu, Yi Yang, Meng Wang
- Abstract要約: 本稿では,周波数領域の競合損失制約型軽量サイクルGANと呼ばれる,軽量でリアルタイムな非教師付きBIDベースラインを提案する。
FCL-GANは、画像領域制限がなく、画像解像度制限がなく、SOTAより25倍軽く、SOTAより5倍高速である。
いくつかの画像データセットの実験では、性能、モデルサイズ、参照時間の観点からFCL-GANの有効性が示されている。
- 参考スコア(独自算出の注目度): 72.43250555622254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blind image deblurring (BID) remains a challenging and significant task.
Benefiting from the strong fitting ability of deep learning, paired data-driven
supervised BID method has obtained great progress. However, paired data are
usually synthesized by hand, and the realistic blurs are more complex than
synthetic ones, which makes the supervised methods inept at modeling realistic
blurs and hinders their real-world applications. As such, unsupervised deep BID
method without paired data offers certain advantages, but current methods still
suffer from some drawbacks, e.g., bulky model size, long inference time, and
strict image resolution and domain requirements. In this paper, we propose a
lightweight and real-time unsupervised BID baseline, termed Frequency-domain
Contrastive Loss Constrained Lightweight CycleGAN (shortly, FCL-GAN), with
attractive properties, i.e., no image domain limitation, no image resolution
limitation, 25x lighter than SOTA, and 5x faster than SOTA. To guarantee the
lightweight property and performance superiority, two new collaboration units
called lightweight domain conversion unit(LDCU) and parameter-free
frequency-domain contrastive unit(PFCU) are designed. LDCU mainly implements
inter-domain conversion in lightweight manner. PFCU further explores the
similarity measure, external difference and internal connection between the
blurred domain and sharp domain images in frequency domain, without involving
extra parameters. Extensive experiments on several image datasets demonstrate
the effectiveness of our FCL-GAN in terms of performance, model size and
reference time.
- Abstract(参考訳): BID(Blind Image Deblurring)は依然として困難な課題である。
深層学習の強い適合性から、ペア化されたデータ駆動型教師付きBID法が大きな進歩を遂げた。
しかし、ペアデータは通常手作業で合成されるため、現実的な曖昧さは合成法よりも複雑であり、教師付き手法は現実的な曖昧さをモデル化できず、現実の応用を妨げる。
このように、ペアデータを持たない教師なしのディープBID法には何らかの利点があるが、現在の手法では、例えば、大きめのモデルサイズ、長い推測時間、厳密な画像解像度とドメイン要件など、いくつかの欠点がある。
本稿では, 周波数領域のコントラスト損失制約付き軽量サイクガン(略してfcl-gan)と呼ばれる, 画像領域制限なし, 解像度制限なし, sotaより25倍軽量, sotaより5倍高速化した, 軽量かつリアルタイムな入札ベースラインを提案する。
軽量性と性能の優位性を保証するため、軽量領域変換ユニット(LDCU)とパラメータフリー周波数領域コントラストユニット(PFCU)という2つの新しい協調ユニットを設計する。
LDCUは主にドメイン間変換を軽量に実装している。
PFCUはさらに、余分なパラメータを伴わずに、ぼやけた領域と周波数領域の鋭い領域画像との間の類似度測定、外部差、内部接続について検討している。
いくつかの画像データセットに対する大規模な実験は、パフォーマンス、モデルサイズ、参照時間の観点から、FCL-GANの有効性を示す。
関連論文リスト
- OminiControl: Minimal and Universal Control for Diffusion Transformer [68.3243031301164]
OminiControlは、イメージ条件をトレーニング済みのDiffusion Transformer(DiT)モデルに統合するフレームワークである。
コアとなるOminiControlはパラメータ再利用機構を活用しており、強力なバックボーンとしてイメージ条件をエンコードすることができる。
OminiControlは、主観駆動生成や空間的に整合した条件を含む、幅広いイメージコンディショニングタスクを統一的に処理する。
論文 参考訳(メタデータ) (2024-11-22T17:55:15Z) - WTCL-Dehaze: Rethinking Real-world Image Dehazing via Wavelet Transform and Contrastive Learning [17.129068060454255]
自律運転や監視といったアプリケーションには、単一イメージのデハジングが不可欠だ。
コントラスト損失と離散ウェーブレット変換を統合した半教師付きデハージングネットワークを提案する。
提案アルゴリズムは,最先端の単一画像復調法と比較して,優れた性能とロバスト性を実現している。
論文 参考訳(メタデータ) (2024-10-07T05:36:11Z) - Misalignment-Robust Frequency Distribution Loss for Image Transformation [51.0462138717502]
本稿では,画像強調や超解像といった深層学習に基づく画像変換手法における共通の課題に対処することを目的とする。
本稿では、周波数領域内における分布距離を計算するための、新しいシンプルな周波数分布損失(FDL)を提案する。
本手法は,周波数領域におけるグローバル情報の思慮深い活用により,トレーニング制約として実証的に有効であることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:27:41Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Spatial-Frequency Attention for Image Denoising [22.993509525990998]
本研究では,長距離依存性を利用した空間周波数アテンションネットワーク(SFANet)を提案する。
複数のdenoisingベンチマークの実験は、SFANetネットワークのリードパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-02-27T09:07:15Z) - GDIP: Gated Differentiable Image Processing for Object-Detection in
Adverse Conditions [15.327704761260131]
本稿では,ドメインに依存しないネットワークアーキテクチャであるGated Differentiable Image Processing (GDIP)ブロックを提案する。
提案するGDIPブロックは、下流の物体検出損失から画像を直接拡張することを学ぶ。
いくつかの最先端手法による検出性能の大幅な向上を示す。
論文 参考訳(メタデータ) (2022-09-29T16:43:13Z) - Efficient and Degradation-Adaptive Network for Real-World Image
Super-Resolution [28.00231586840797]
実世界の画像超解像(Real-ISR)は、実世界の画像の未知の複雑な劣化のために難しい課題である。
近年のReal-ISRの研究は、画像劣化空間をモデル化することによって大きな進歩を遂げている。
本稿では,各入力画像の劣化を推定してパラメータを適応的に指定する,効率的な劣化適応型超解像ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-27T05:59:13Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。