論文の概要: A Lightweight Image Super-Resolution Transformer Trained on Low-Resolution Images Only
- arxiv url: http://arxiv.org/abs/2503.23265v1
- Date: Sun, 30 Mar 2025 00:52:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.022441
- Title: A Lightweight Image Super-Resolution Transformer Trained on Low-Resolution Images Only
- Title(参考訳): 低解像度画像のみを用いた軽量超解像変換器
- Authors: Björn Möller, Lucas Görnhardt, Tim Fingscheidt,
- Abstract要約: トランスフォーマーアーキテクチャは、高解像度(HR)イメージを低解像度(LR)画像から再構成し、シングルイメージのスーパー解像度(SISR)ベンチマークを顕著にリードする。
しかし、彼らの強力な代表力は、畳み込みニューラルネットワーク(CNN)と比較して、トレーニングデータの需要が高い。
本研究では,非教師付きSISR LRのみのベンチマークに対処するLRのみのトレーニング手法を用いた軽量ビジョントランスフォーマーモデルを初めて活用する。
- 参考スコア(独自算出の注目度): 22.127873567034825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer architectures prominently lead single-image super-resolution (SISR) benchmarks, reconstructing high-resolution (HR) images from their low-resolution (LR) counterparts. Their strong representative power, however, comes with a higher demand for training data compared to convolutional neural networks (CNNs). For many real-world SR applications, the availability of high-quality HR training images is not given, sparking interest in LR-only training methods. The LR-only SISR benchmark mimics this condition by allowing only low-resolution (LR) images for model training. For a 4x super-resolution, this effectively reduces the amount of available training data to 6.25% of the HR image pixels, which puts the employment of a data-hungry transformer model into question. In this work, we are the first to utilize a lightweight vision transformer model with LR-only training methods addressing the unsupervised SISR LR-only benchmark. We adopt and configure a recent LR-only training method from microscopy image super-resolution to macroscopic real-world data, resulting in our multi-scale training method for bicubic degradation (MSTbic). Furthermore, we compare it with reference methods and prove its effectiveness both for a transformer and a CNN model. We evaluate on the classic SR benchmark datasets Set5, Set14, BSD100, Urban100, and Manga109, and show superior performance over state-of-the-art (so far: CNN-based) LR-only SISR methods. The code is available on GitHub: https://github.com/ifnspaml/SuperResolutionMultiscaleTraining.
- Abstract(参考訳): トランスフォーマーアーキテクチャは、高解像度(HR)イメージを低解像度(LR)画像から再構成し、シングルイメージのスーパー解像度(SISR)ベンチマークを顕著にリードする。
しかし、その強力な代表力は、畳み込みニューラルネットワーク(CNN)に比べて、トレーニングデータに対する需要が高い。
多くの実世界のSRアプリケーションでは、高品質なHRトレーニング画像が提供されないため、LRのみのトレーニング手法への関心が高まっている。
LRのみのSISRベンチマークは、モデルトレーニングのための低解像度(LR)イメージのみを許すことで、この条件を模倣している。
4倍の超解像度では、利用可能なトレーニングデータをHR画像ピクセルの6.25%に効果的に削減し、データハングリートランスフォーマーモデルの活用が問題となる。
本研究では,非教師付きSISR LRのみのベンチマークに対処するLRのみのトレーニング手法を用いた軽量ビジョントランスフォーマーモデルを初めて活用する。
我々は,顕微鏡画像からマクロな実世界のデータまで,最近のLRのみのトレーニング手法を採用し,構成し,その結果,バイキュビック劣化(MSTbic)のマルチスケールトレーニング法が得られた。
さらに、参照手法と比較し、変換器とCNNモデルの両方の有効性を検証した。
本研究では,従来のSRベンチマークデータセットであるSet5,Set14,BSD100,Urban100,Manga109を評価し,最新の(CNNベースの)LR専用SISR法よりも優れた性能を示す。
コードはGitHubで入手できる。 https://github.com/ifnspaml/SuperResolutionMultiscaleTraining。
関連論文リスト
- Enhanced Super-Resolution Training via Mimicked Alignment for Real-World Scenes [51.92255321684027]
トレーニング中、LR入力とHR画像の整列により、誤調整問題を緩和する新しいプラグアンドプレイモジュールを提案する。
具体的には,従来のLR試料の特徴を保ちながらHRと整合する新しいLR試料を模倣する。
本手法を合成および実世界のデータセット上で総合的に評価し,SRモデルのスペクトル間での有効性を実証した。
論文 参考訳(メタデータ) (2024-10-07T18:18:54Z) - Learning Many-to-Many Mapping for Unpaired Real-World Image
Super-resolution and Downscaling [60.80788144261183]
実世界のLR画像とHR画像の双方向多対多マッピングを教師なしで同時に学習するSDFlowと呼ばれる画像ダウンスケーリングとSRモデルを提案する。
実世界の画像SRデータセットによる実験結果から,SDFlowは定量的かつ定性的に,多様な現実的なLRとSRの画像を生成可能であることが示唆された。
論文 参考訳(メタデータ) (2023-10-08T01:48:34Z) - Simple and Efficient Unpaired Real-world Super-Resolution using Image
Statistics [0.11714813224840924]
本稿では,実世界のSRネットワークの簡易かつ効率的なトレーニング方法を提案する。
我々のフレームワークは2つのGANで構成されており、1つはHR画像をLR画像に変換するためのもので、もう1つはLR画像をHRに変換するためのものである。
我々は,提案したデータサンプリング戦略を用いて,GANを用いた未ペア画像翻訳を効率的に学習できると主張している。
論文 参考訳(メタデータ) (2021-09-19T06:10:33Z) - LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single
Image Super-Resolution and Beyond [75.37541439447314]
単一画像超解像(SISR)は、低解像度(LR)画像を高解像度(HR)バージョンにアップサンプリングする根本的な問題を扱う。
本稿では,線形組立画素適応回帰ネットワーク (LAPAR) を提案する。
論文 参考訳(メタデータ) (2021-05-21T15:47:18Z) - Closed-loop Matters: Dual Regression Networks for Single Image
Super-Resolution [73.86924594746884]
ディープニューラルネットワークは、画像超解像において有望な性能を示した。
これらのネットワークは、低分解能(LR)画像から高分解能(HR)画像への非線形マッピング関数を学習する。
本稿では,可能な関数の空間を削減するために,LRデータに新たな制約を導入することで,二重回帰手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T04:23:42Z) - Learning to Zoom-in via Learning to Zoom-out: Real-world
Super-resolution by Generating and Adapting Degradation [91.40265983636839]
本稿では,SR を任意の LR と HR 画像から学習するためのフレームワークを提案する。
我々は、劣化適応SRネットワークを学習しながら、生成されたデータと実データとの差を最小限にする。
提案手法は,ペア学習法をより好むデータセットであっても,実世界の画像上での最先端のSR結果を実現する。
論文 参考訳(メタデータ) (2020-01-08T05:17:02Z) - Characteristic Regularisation for Super-Resolving Face Images [81.84939112201377]
既存の顔画像超解像法(SR)は、主に人工的にダウンサンプリングされた低解像度(LR)画像の改善に焦点を当てている。
従来の非教師なしドメイン適応(UDA)手法は、未ペアの真のLRとHRデータを用いてモデルをトレーニングすることでこの問題に対処する。
これにより、視覚的特徴を構成することと、画像の解像度を高めることの2つのタスクで、モデルをオーバーストレッチする。
従来のSRモデルとUDAモデルの利点を結合する手法を定式化する。
論文 参考訳(メタデータ) (2019-12-30T16:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。