論文の概要: IG-CFAT: An Improved GAN-Based Framework for Effectively Exploiting Transformers in Real-World Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2406.13815v1
- Date: Wed, 19 Jun 2024 20:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 18:25:37.969844
- Title: IG-CFAT: An Improved GAN-Based Framework for Effectively Exploiting Transformers in Real-World Image Super-Resolution
- Title(参考訳): IG-CFAT: 実世界の超解像における変圧器を効果的に爆発させるための改良されたGANベースのフレームワーク
- Authors: Alireza Aghelan, Ali Amiryan, Abolfazl Zarghani, Behnoush Hatami,
- Abstract要約: 本稿では,CFATモデルをIG-CFATと呼ばれる改良型GANモデルに拡張する。
IG-CFATは、画像の詳細をより正確に再構築するための意味認識型識別器を組み込んでいる。
提案手法は,GANを用いた超解像モデルにおける従来の損失関数にウェーブレット損失を加え,より効率的に高周波の詳細を再構成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of single image super-resolution (SISR), transformer-based models, have demonstrated significant advancements. However, the potential and efficiency of these models in applied fields such as real-world image super-resolution are less noticed and there are substantial opportunities for improvement. Recently, composite fusion attention transformer (CFAT), outperformed previous state-of-the-art (SOTA) models in classic image super-resolution. This paper extends the CFAT model to an improved GAN-based model called IG-CFAT to effectively exploit the performance of transformers in real-world image super-resolution. IG-CFAT incorporates a semantic-aware discriminator to reconstruct image details more accurately, significantly improving perceptual quality. Moreover, our model utilizes an adaptive degradation model to better simulate real-world degradations. Our methodology adds wavelet losses to conventional loss functions of GAN-based super-resolution models to reconstruct high-frequency details more efficiently. Empirical results demonstrate that IG-CFAT sets new benchmarks in real-world image super-resolution, outperforming SOTA models in both quantitative and qualitative metrics.
- Abstract(参考訳): 単一画像超解像(SISR)の分野では、トランスフォーマーベースモデルが大きな進歩を見せている。
しかし、実世界の画像超解像のような応用分野におけるこれらのモデルの可能性や効率は、あまり注目されず、改善の機会もかなりある。
近年,複合核融合アテンショントランス (CFAT) は,従来のSOTAモデルよりも高画質である。
本稿では,実世界の画像超解像における変換器の性能を効果的に活用するために,IG-CFATと呼ばれる改良型GANモデルにCFATモデルを拡張した。
IG-CFATは、画像の詳細をより正確に再構成し、知覚品質を著しく向上させる意味認識識別器を組み込んでいる。
さらに,本モデルでは,適応的劣化モデルを用いて実世界の劣化をシミュレートする。
提案手法は,GANを用いた超解像モデルにおける従来の損失関数にウェーブレット損失を加え,より効率的に高周波の詳細を再構成する。
実験の結果、IG-CFATは実世界の画像の超解像に新しいベンチマークを設定し、定量と定性の両方でSOTAモデルを上回った。
関連論文リスト
- Towards Realistic Data Generation for Real-World Super-Resolution [79.24617577528593]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - Training Transformer Models by Wavelet Losses Improves Quantitative and Visual Performance in Single Image Super-Resolution [6.367865391518726]
トランスフォーマーベースモデルは、画像超解像(SR)を含む低レベル視覚タスクにおいて顕著な結果を得た
グローバルにより多くの入力ピクセルを活性化するために、ハイブリッドアテンションモデルが提案されている。
ウェーブレット損失を利用してTransformerモデルをトレーニングし、定量的および主観的性能を向上させる。
論文 参考訳(メタデータ) (2024-04-17T11:25:19Z) - DeeDSR: Towards Real-World Image Super-Resolution via Degradation-Aware Stable Diffusion [27.52552274944687]
低解像度画像のコンテンツや劣化を認識する拡散モデルの能力を高める新しい2段階の劣化認識フレームワークを提案する。
最初の段階では、教師なしのコントラスト学習を用いて画像劣化の表現を得る。
第2段階では、分解対応モジュールを単純化されたControlNetに統合し、様々な劣化への柔軟な適応を可能にします。
論文 参考訳(メタデータ) (2024-03-31T12:07:04Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Implicit Diffusion Models for Continuous Super-Resolution [65.45848137914592]
本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
論文 参考訳(メタデータ) (2023-03-29T07:02:20Z) - Underwater Image Super-Resolution using Generative Adversarial
Network-based Model [3.127436744845925]
単一画像超解像モデル(SISR)は、水中画像の解像度と視覚的品質を向上させることができる。
本稿では,水中画像の超解像のための事前訓練されたReal-ESRGANモデルを微調整する。
論文 参考訳(メタデータ) (2022-11-07T13:38:28Z) - Image Super-Resolution With Deep Variational Autoencoders [10.62560651449376]
VDVAE-SRは,最新の深部VAE手法を利用して画像超解像を改善することを目的とした新しいモデルである。
提案手法は他の最先端手法と競合することを示す。
論文 参考訳(メタデータ) (2022-03-17T17:05:14Z) - Uncovering the Over-smoothing Challenge in Image Super-Resolution: Entropy-based Quantification and Contrastive Optimization [67.99082021804145]
我々はDetail Enhanced Contrastive Loss (DECLoss)と呼ばれるCOO問題に対する明確な解決策を提案する。
DECLossはコントラスト学習のクラスタリング特性を利用して、潜在的な高分解能分布の分散を直接的に低減する。
我々は複数の超高解像度ベンチマーク上でDECLosを評価し,PSNR指向モデルの知覚品質を向上させることを実証した。
論文 参考訳(メタデータ) (2022-01-04T08:30:09Z) - A Generic Approach for Enhancing GANs by Regularized Latent Optimization [79.00740660219256]
本稿では,事前学習したGANを効果的かつシームレスに拡張できる,エミュレーティブモデル推論と呼ばれる汎用フレームワークを提案する。
我々の基本的な考え方は、ワッサーシュタイン勾配流法を用いて与えられた要求に対する最適潜時分布を効率的に推算することである。
論文 参考訳(メタデータ) (2021-12-07T05:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。