論文の概要、ライセンス

# (参考訳) Blind Super-Resolution:分解モデル,ベースライン,パフォーマンス上の境界 [全文訳有]

A Closer Look at Blind Super-Resolution: Degradation Models, Baselines, and Performance Upper Bounds ( http://arxiv.org/abs/2205.04910v1 )

ライセンス: CC BY 4.0
Wenlong Zhang, Guangyuan Shi, Yihao Liu, Chao Dong, Xiao-Ming Wu(参考訳) 分解モデルはブラインド超解像(SR)において重要な役割を果たす。 古典的な劣化モデルは、主にぼやけた劣化を伴うが、現実のシナリオをシミュレートするには単純すぎる。 近年提案されている実用的劣化モデルは, 劣化型の全スペクトルを含むが, 劣化過程においてすべての劣化型を用いる複雑な場合のみを考慮し, 現実に共通する多くの重要なコーナーケースを無視している。 この問題に対処するために,ランダムゲートコントローラを用いて広い範囲の劣化事例を生成する統一ゲート劣化モデルを提案する。 ゲート劣化モデルに基づいて,非盲点,古典的,実践的,その他多くのコーナーケースを効果的に扱える単純なベースラインネットワークを提案する。 現状の手法に対するベースラインネットワークの性能を正確に評価し,その限界を理解するために,劣化タイプ毎にSRネットワークの性能上限を導入する。 実験により, 統一ゲート劣化モデルにより, 提案したベースラインは, 性能上界に近い, 定量的, 定性的結果の既存手法よりもはるかに優れた性能が得られることを示した。

Degradation models play an important role in Blind super-resolution (SR). The classical degradation model, which mainly involves blur degradation, is too simple to simulate real-world scenarios. The recently proposed practical degradation model includes a full spectrum of degradation types, but only considers complex cases that use all degradation types in the degradation process, while ignoring many important corner cases that are common in the real world. To address this problem, we propose a unified gated degradation model to generate a broad set of degradation cases using a random gate controller. Based on the gated degradation model, we propose simple baseline networks that can effectively handle non-blind, classical, practical degradation cases as well as many other corner cases. To fairly evaluate the performance of our baseline networks against state-of-the-art methods and understand their limits, we introduce the performance upper bound of an SR network for every degradation type. Our empirical analysis shows that with the unified gated degradation model, the proposed baselines can achieve much better performance than existing methods in quantitative and qualitative results, which are close to the performance upper bounds.
公開日: Tue, 10 May 2022 14:02:49 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] V I . s s e e [ ] V 私は。 s s e e である。 0.52
1 v 0 1 9 4 0 1 v 0 1 9 4 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
A Closer Look at Blind Super-Resolution: Degradation Models, Baselines, and Blind Super-Resolution:分解モデル,ベースライン,その他 0.62
Performance Upper Bounds Wenlong Zhang1, Guangyuan Shi1, Yihao Liu2 3, Chao Dong2 4, Xiao-Ming Wu1* 性能上界 Wenlong Zhang1, Guangyuan Shi1, Yihao Liu2 3, Chao Dong2 4, Xiao-Ming Wu1* 0.33
1The HongKong Polytechnic University, 2Shenzhen Institute of Advanced Technology, CAS 第1回 香港ポリテクニック大学 深セン高等技術研究所 cas 0.73
3University of Chinese Academy of Sciences, 4Shanghai AI Laboratory 中国科学アカデミー, 4上海AI研究室の3大学 0.87
{wenlong.zhang, guang-yuan.shi}@connect.polyu.hk, {yh.liu4, chao.dong}@siat.ac.cn {wenlong.zhang, guang-yuan.shi}@connect.polyu.hk, {yh.liu4, chao.dong}@siat.ac.cn 0.27
xiao-ming.wu@polyu.e du.hk xiao-ming.wu@polyu.e du.hk 0.20
Abstract Degradation models play an important role in Blind super-resolution (SR). 概要 分解モデルはブラインド超解像(SR)において重要な役割を果たす。 0.55
The classical degradation model, which mainly involves blur degradation, is too simple to simulate real-world scenarios. 古典的な劣化モデルは、主にぼやけた劣化を伴うが、現実のシナリオをシミュレートするには単純すぎる。 0.66
The recently proposed practical degradation model includes a full spectrum of degradation types, but only considers complex cases that use all degradation types in the degradation process, while ignoring many important corner cases that are common in the real world. 近年提案されている実用的劣化モデルは, 劣化型の全スペクトルを含むが, 劣化過程においてすべての劣化型を用いる複雑な場合のみを考慮し, 現実に共通する多くの重要なコーナーケースを無視している。 0.77
To address this problem, we propose a unified gated degradation model to generate a broad set of degradation cases using a random gate controller. この問題に対処するために,ランダムゲートコントローラを用いて広い範囲の劣化事例を生成する統一ゲート劣化モデルを提案する。 0.81
Based on the gated degradation model, we propose simple baseline networks that can effectively handle non-blind, classical, practical degradation cases as well as many other corner cases. ゲート劣化モデルに基づいて,非盲点,古典的,実践的,その他多くのコーナーケースを効果的に扱える単純なベースラインネットワークを提案する。 0.80
To fairly evaluate the performance of our baseline networks against state-of-the-art methods and understand their limits, we introduce the performance upper bound of an SR network for every degradation type. 現状の手法に対するベースラインネットワークの性能を正確に評価し,その限界を理解するために,劣化タイプ毎にSRネットワークの性能上限を導入する。 0.82
Our empirical analysis shows that with the unified gated degradation model, the proposed baselines can achieve much better performance than existing methods in quantitative and qualitative results, which are close to the performance upper bounds. 実験により, 統一ゲート劣化モデルにより, 提案したベースラインは, 性能上界に近い, 定量的, 定性的結果の既存手法よりもはるかに優れた性能が得られることを示した。 0.81
1. Introduction Traditional image super-resolution (SR) aims at reconstructing a high-resolution (HR) image from a lowresolution (LR) observation. はじめに 伝統 画像超解像(SR)は、低分解能(LR)観測から高分解能(HR)画像を再構成することを目的としている。
訳抜け防止モード: はじめに 伝統 image super- resolution (SR) は 低分解能(LR)観測から高分解能(HR)画像を再構成すること。
0.64
In the past decade, convolutional neural networks (CNNs) [5, 30, 41, 42] have demonstrated superior performance in this task due to their powerful representation learning ability. 過去10年間、畳み込みニューラルネットワーク(cnns)[5,30,41,42]は、その強力な表現学習能力により、このタスクにおいて優れたパフォーマンスを示している。 0.75
Unlike traditional image SR, blind SR aims to generate an HR image from the counterpart one with a variety of unknown degradation types. 従来のイメージsrとは異なり、blind srは、さまざまな未知の劣化タイプを持つhrイメージを生成することを目指している。 0.66
*Corresponding author Figure 1. ※対応作者 図1に示す。 0.57
Visual comparisons of our method and state-of-the-art methods in ×4 blind super-resolution. ×4ブラインド超解像における本法と最先端法の比較 0.64
Recent blind SR methods can be roughly divided into two groups. 最近の盲点SR法は、大きく2つのグループに分けられる。 0.64
The first one [39] adopts a classical degradation model, which adds a blur degradation to the non-blind degradation model. 最初の[39]は古典的な劣化モデルを採用し、非盲検分解モデルに曖昧な劣化を加えます。 0.77
Extensive research has achieved significant progress, such as kernel estimation [6,18,19], representation learning [28], zero-shot learning [24], meta-learning [21, 25], optimization method [4], real-world dataset [3, 32] and unsupervised methods [17, 35]. カーネル推定[6,18,19],表現学習[28],ゼロショット学習[24],メタラーニング[21,25],最適化メソッド[4],実世界のデータセット[3,32],教師なしメソッド[17,35]など,広範な研究は大きな進歩を遂げている。 0.82
However, down-sampling with blur degradation is still an overly simple simulation since there exist many other degradation types in the real world. しかし、ボケ劣化を伴うダウンサンプリングは、現実世界に他の多くの劣化タイプが存在するため、まだ非常に単純なシミュレーションである。 0.60
To address this problem, recent research introduces a practical degradation (PD) model [29,38] to mimic the degradation process from HR to LR images with various degradation types, including multiple blur types, noise types, and JPEG compression. この問題に対処するために,近年,hr画像からlr画像への劣化過程を複数のボケタイプ,ノイズタイプ,jpeg圧縮を含む様々な劣化型で模倣する実用的劣化モデル[29,38]を導入した。 0.78
Furthermore, BSRGAN [38] introduces a shuffle operation to expand the degradation space, and RealESRGAN [29] designs a high-order pipeline to simulate complex degradations. さらに, BSRGAN [38] は分解空間を拡張するシャッフル演算を導入し, RealESRGAN [29] は複雑な劣化をシミュレートする高次パイプラインを設計した。 0.89
LRPSNR(dB)/SSIMSwinI R24.74/0.66SwinIR-GD (ours)25.70/0.72BSRN et24.59/0.65 LRPSNR(dB)/SSIMSwinI R24.74/0.66SwinIR-GD (ours)25.70/0.72BSRN et24.59/0.65 0.17
英語(論文から抽出)日本語訳スコア
Despite recent progress, blind SR remains a challenging problem. 近年の進歩にもかかわらず、盲目のSRは依然として困難な問題である。 0.47
In our pilot study, we have identified three key issues not well examined in previous research: 私たちのパイロット研究では、以前の研究では十分に検証されていない3つの重要な問題を特定しました。 0.52
1) the design of a general degradation model that can cover most or even all degradation cases; 1) 分解事例のほとんど又はすべてをカバーすることができる一般劣化モデルの設計 0.78
2) strong baselines that can well handle most degradation cases; 2) ほとんどの劣化事例をうまく処理できる強固なベースライン 0.74
3) the study of performance upper bounds that can be used to evaluate the performance of existing blind SR methods w.r.t. distinct degradation cases. 3)既存のブラインドsr法w.r.t.分解症例の性能評価に使用できる性能上限の検討。
訳抜け防止モード: 3) 性能上界の研究 既存の盲検SR法w.r.t.の異なる劣化事例の性能を評価するために用いられる。
0.76
For issue 1, it is a well-known fact that the degradation process of real-world images is highly random, which may involve a broad set of degradation cases. 第1号では、実世界の画像の劣化過程が極めてランダムであることはよく知られている。
訳抜け防止モード: 問題1では、実世界の画像の分解過程が極めてランダムであることはよく知られた事実である。 広い範囲の分解事例を伴います
0.67
However, existing degradation models only cover limited degradation cases. しかし、既存の劣化モデルは限られた劣化事例のみをカバーする。 0.60
The classical degradation model [19, 28] only focuses on the blur degradation type, whereas the practical degradation model [29,38] considers the most complex degradation cases and ignores many other corner cases (e g , combinations of a subset of degradation types). 古典的劣化モデル [19, 28] はぼやけた劣化タイプにのみ焦点をあてるが, 実用的劣化モデル [29,38] は最も複雑な劣化ケースを考慮し, その他の多くのコーナーケース(例えば, 劣化タイプのサブセットの組み合わせ)を無視する。 0.87
This leads to issue 2. これが第2号となる。 0.49
Due to the lack of a unified degradation model, existing methods can not perform well in various degradation cases, as shown in Figure 1. 統一的な劣化モデルがないため、図1に示すように、既存の手法は様々な劣化ケースではうまく機能しない。 0.73
Hence, a strong baseline that can well handle different degradation cases is in need, which can facilitate the comparative analysis of the learning ability of a blind SR network. したがって、異なる劣化事例をうまく処理できる強力なベースラインが必要であり、盲点SRネットワークの学習能力の比較分析を容易にすることができる。 0.79
For issue 3, there lacks the study of quantitative performance upper bounds that an SR network trained with a specific degradation type (e g , blur 2.0) can achieve on the test dataset. 問題3では、特定の劣化タイプ(例えば、ぼかし2.0)でトレーニングされたSRネットワークがテストデータセットで達成できる量的パフォーマンス上限の研究が欠如している。 0.74
Without comparison with the upper bounds, it is difficult to evaluate whether a blind SR network is good enough in a special degradation case. 上限値との比較がなければ,特別な劣化の場合,ブラインドsrネットワークが十分であるかどうかを評価することは困難である。 0.72
In this paper, we take a closer look at the three issues and provide simple yet effective solutions. 本稿では,この3つの問題を詳細に検討し,単純かつ効果的なソリューションを提案する。 0.81
To address issue 1, we propose a unified gated practical degradation (GD) model for blind SR. 問題1に対処するため、我々はブラインドSRのための統一ゲート実用劣化(GD)モデルを提案する。 0.68
Specifically, the proposed GD model introduces a gate mechanism that can generate various combinations of degradation types to cover as many degradation cases as possible in the real-world. 特に,提案するgdモデルでは,実世界で可能な限り多くの劣化事例をカバーするために,分解型を様々な組み合わせで生成できるゲート機構を導入している。 0.75
In the degradation process, we use a random gate controller to determine whether the HR image undergoes a certain degradation. 劣化過程において、HR画像が一定の劣化を受けるか否かをランダムゲートコントローラを用いて判定する。 0.71
As such, the proposed GD model can include traditional cases (nonblind SR), simple degradation cases (classical blind SR), complex degradation cases (practical blind SR), as well as many other common corner cases. 提案したGDモデルは、従来のケース(非盲検SR)、単純な分解ケース(古典的盲検SR)、複雑な分解ケース(実用的盲検SR)、その他多くの共通コーナーケースを含むことができる。 0.70
The GD model leads to solutions to issue 2. GDモデルは2号の解決につながる。 0.69
Based on the GD model, we propose strong baseline networks that can well handle most degradation cases. gdモデルに基づいて,ほとんどの劣化事例を適切に処理できる強力なベースラインネットワークを提案する。 0.71
Without additional design, our blind SR networks can surprisingly achieve consistent and significant performance gains over existing methods. 追加の設計がなければ、私たちの盲目のsrネットワークは、既存の方法よりも驚くほど一貫性があり、大幅なパフォーマンス向上を達成できます。 0.44
To address issue 3, we introduce performance upper bounds to effectively evaluate existing methods and our proposed baselines on various degradation cases. 課題3に対処すべく,既存手法を効果的に評価するために性能上限を導入し,各種劣化事例のベースラインを提案する。 0.75
Specifically, the performance upper bound for a certain degradation case can be obtained by training an SR network on the corresponding dataset. 具体的には、対応するデータセット上でSRネットワークをトレーニングすることにより、特定の劣化ケースのパフォーマンス上限を得ることができる。 0.68
With the performance upper bounds, we provide a comprehensive comparative analysis of a blind SR network on the 性能上の上限により,ブラインドsrネットワークの包括的比較分析を行う。 0.63
classical and practical degradation models as well as our proposed GD model (section 4). 古典的および実践的な劣化モデルと提案したGDモデル(第4節)。 0.76
The contributions of this paper are summarized as follows. 本論文の貢献は以下のとおりである。 0.75
• We propose a unified gated degradation model that can effectively handle non-blind, classical, practical degradation cases as well as many other corner cases. • 非盲点,古典的,実践的,その他多くのコーナーケースを効果的に扱える統一ゲート劣化モデルを提案する。 0.76
• To the best of our knowledge, we are the first to provide a comprehensive analysis of blind SR with performance upper bounds on both the classical and practical blind SR paradigms. • 知識を最大限に活用するために、我々は、古典的および実践的な盲目SRパラダイムの両方にパフォーマンス上の上限を持つ盲目SRの包括的分析を初めて提供する。 0.77
• We show that the baseline networks with the proposed GD model can achieve superior performance close to the upper bounds. • 提案したGDモデルを用いたベースラインネットワークは,上界に近い性能が得られることを示す。 0.72
2. Related work Non-blind super-resolution. 2.関連作品 非盲点超解像 0.67
Since Dong et al [5] first introduced convolutional neural networks (CNNs) to the SR task, a series of learning-based works [7, 8, 10, 10, 16, 27, 37, 41, 42] have achieved great performance. Dongら[5]が最初にSRタスクに畳み込みニューラルネットワーク(CNN)を導入して以来、一連の学習ベースの作品(7, 8, 10, 10, 16, 27, 37, 41, 42)が大きな成果を上げている。 0.79
To reconstruct realistic textures, generative adversarial networks (GAN) [12] are introduced to generate visually pleasing results. 現実的なテクスチャを再構築するために、生成敵対ネットワーク(GAN)[12]を導入し、視覚的に楽しむ結果を生成する。 0.62
A series of GAN-based methods [22,23,30,31,35] are proposed to improve the visual results and quantitative results [33,40]. GANに基づく一連の手法 [22,23,30,31,35] を提案し, 視覚的結果と定量的結果 [33,40] を改善する。 0.62
However, these methods focus on the bicubic down-sampling degradation model, which is too idealistic compared with the LR image in the real-world. しかし,これらの手法は実世界のLR画像と比較すると理想的すぎるバイコビックダウンサンプリング劣化モデルに焦点をあてている。 0.82
Classical blind super-resolution. クラシック・ブラインド・スーパーレゾリューション。 0.45
To enhance the reconstruction ability of the SR network in the real-world. 現実世界におけるSRネットワークの再構築能力を高める。 0.71
Zhang et al [39] proposed a classical blind degradation model consisting of Gaussian blur and noise with a range. Zhang et al [39] はガウスのぼかしと範囲の雑音からなる古典的なブラインド劣化モデルを提案した。 0.76
Furthermore, Gu et al [6] proposed a kernel estimation method with an iterative correction algorithm. さらに gu et al [6] は反復補正アルゴリズムを用いたカーネル推定法を提案した。 0.84
Then, DAN [18,19] and DASR [28] are proposed to further improve the blind SR results. 次にdan [18,19] と dasr [28] を提案し, ブラインドsr結果をさらに改善する。 0.76
In addition, a series of methods achieved great improvements in classical blind SR, such as zero-shot learning [24], meta-learning [21, 25], optimization method [4], real-world dataset [3, 32], and unsupervised methods [17, 35]. さらに,ゼロショット学習[24],メタラーニング[21,25],最適化方法[4],実世界データセット[3,32],教師なし手法[17,35]など,古典的なブラインドsrでは,一連の方法が大幅に改善されている。 0.82
However, these methods only consider a part of degradation types in the real-world. しかし、これらの手法は実世界の劣化型の一部しか考慮していない。 0.61
The LR images in the real-world are affected by a variety of degradation types. 現実世界のLR画像は、様々な劣化タイプの影響を受けている。 0.77
Practical blind super-resolution. ブラインド・スーパーレゾリューション。 0.47
Considering that there are multiple degradation types in the real-world. 現実世界には複数の劣化型がある。 0.55
Zhang et al [38] proposed a practical degradation model, which includes multiple blur types, down-sampling operation (bilinear and bicubic) with a scale factor, camera noise, and JPEG compression. Zhangら[38]は、複数のブラータイプ、スケールファクタを持つダウンサンプリング操作(バイリニアとバイキュビック)、カメラノイズ、JPEG圧縮を含む実用的な劣化モデルを提案した。 0.71
The degradation order is not fixed but randomly shuffled. 劣化順序は固定ではないがランダムにシャッフルされる。 0.63
Furthermore, RealESRGAN [29] introduced a high-order operation to enhance the practical degradation model. さらにrealesrgan [29]は, 実用的劣化モデルを強化するために高次演算を導入した。 0.67
However, these methods can achieve promising results on complex degradation while ignoring some easy cases. しかし、これらの手法は、いくつかの簡単なケースを無視しながら、複雑な劣化に関する有望な結果が得られる。 0.46
英語(論文から抽出)日本語訳スコア
Figure 2. Our proposed gated degradation model is a unified model that encompasses non-blind SR, classical blind SR, and practical blind SR. 図2。 提案するゲート分解モデルは,非盲点sr,古典盲点sr,実用盲点srを包含する統一モデルである。 0.71
The gate controller can generate various corner degradation cases and complex degradation cases to simulate real-world scenarios. ゲートコントローラは、現実世界のシナリオをシミュレートするために、様々なコーナー劣化ケースと複雑な劣化ケースを生成することができる。
訳抜け防止モード: ゲートコントローラは様々なコーナー劣化ケースと複雑な劣化ケースを生成できる 現実世界のシナリオをシミュレートする。
0.74
3. Degradation Models 3.1. 3. 劣化モデル 3.1 0.89
Prior Research Classical Degradation Model. 先行研究 古典的劣化モデル。 0.73
Blind SR is an ill-posed inverse problem which assumes the HR image is affected by multiple degradation types. ブラインドSRは、HR画像が複数の劣化タイプに影響されていると仮定する逆問題である。 0.72
Mathematically, the LR image I LR is generated from the HR image I HR as follows: I LR = Dk,n,j(I HR) = [(k ⊗ I HR)↓s + n]j, 数学的には、このHR画像I HRからLR画像I LRが生成される。
訳抜け防止モード: 数学的には、HR画像I HRからLR画像I LRが生成される:I LR = Dk, n, j(I HR ) = [ ( k ) I HR) s + n]j である。
0.86
(1) where ⊗ represents convolution. (1) は畳み込みを表す。 0.61
First, the high-resolution image I HR is convolved with Gaussian blur kernel k. まず、高分解能画像 I HR はガウスのぼかし核 k と結びついている。 0.67
Then, the blurred image is down-sampled (denoted by ↓s) and an additive white Gaussian noise (denoted by n) is added to the degraded image. そして、劣化した画像にぼやけた画像がダウンサンプリングされ(sで示される)、付加的な白色ガウスノイズ(nで示される)が付加される。 0.66
Finally, the low-resolution image I LR is obtained by JPEG compression (denoted by j). 最後に、JPEG圧縮(jで示される)により低解像度画像ILRを得る。 0.70
With the classical degradation model, existing blind SR methods [6, 18, 28, 34] focus on the blur degradation while using a fixed noise (e g , n = 20) rather than a range noise (e g , n ∈ [1, 30]). 古典的劣化モデルでは、既存の盲点SR法 [6, 18, 28, 34] は、範囲雑音 (e g , n ∈ [1, 30]) ではなく、固定雑音 (e g , n = 20) を用いて、ぼやけた劣化に焦点を当てている。 0.74
JPEG compression is generally not considered. JPEG圧縮は一般的に考慮されていない。 0.62
Note that without the blur, noise, and JPEG degradation, the classical degradation model is equivalent to the non-blind degradation model. ブラー、ノイズ、JPEGの劣化がなければ、古典的な劣化モデルは非盲検分解モデルと同値である。 0.68
Practical Degradation Model. Different from the classical degradation model, the practical degradation model [29,38] assumes the HR image undergoes a series of degradation cases to generate the LR image: I LR = Dp(I HR) = (D1 ◦ D2 ◦ D3 ··· Dm)(I HR), 実用的劣化モデル。 古典的劣化モデルと異なり、実用劣化モデル[29,38]は、HR画像がLR画像を生成する一連の劣化ケースを仮定する: I LR = Dp(I HR) = (D1 ) D2 > D3 ·· Dm)(I HR)。 0.77
(2) where Dp denotes the practical degradation process and Di ∈ {Dk, Dn, Dj,···}, ∀i ∈ {1, . . . , m}, represents a base degradation type, e g , Dk is the blur degradation, and Dn is the noise degradation. (2) Dp は実際的な劣化過程を表し、Di ∈ {Dk, Dn, Dj,··} はベース劣化型を表し、eg, Dk は曖昧な劣化であり、Dn はノイズ劣化である。
訳抜け防止モード: (2) Dpは実際的な劣化過程を表します そして Di ∈ { Dk, Dn, Dj, · · · } である。 i ∈ { 1 , . . , m } である。 ベース劣化型 eg を表しています Dkはぼやけた劣化です。 そしてDnはノイズ分解です。
0.62
To simulate more complex degradation cases, the degradation models in BSRGAN [38] and RealESRGAN [29] より複雑な劣化事例をシミュレートするために, bsrgan [38] と realesrgan [29] における劣化モデル 0.77
use a wide range of base degradation types including multiple blur types (e g , generalized Gaussian blur and plateaushaped Gaussian blur), multiple down-sampling schemes (e g , nearest, bilinear, and bicubic), and multiple noises (e g , Poisson noise and camera sensor noise). 複数のブラータイプ(例えば、一般化されたガウスアンブラーとプラトー型のガウスアンブラー)、複数のダウンサンプリングスキーム(例えば、最も近い、双線形、および双立)、複数のノイズ(例えば、ポアソンノイズとカメラセンサノイズ)を含む幅広いベース劣化タイプを使用する。 0.71
3.2. Our Proposed Gated Degradation Model 3.2. 我々が提案するGated Degradation Model 0.58
The practical degradation model only considers complex degradation cases by using all (or most) base degradation types in the degradation process. 実際の劣化モデルでは, 劣化過程におけるすべての(あるいは最も多く)塩基劣化型を用いることで, 複雑な劣化事例を考察するのみである。
訳抜け防止モード: 複合劣化事例のみを考慮した実用劣化モデル 分解プロセスですべての(またはほとんどの)ベース劣化タイプを使用する。
0.77
However, it ignores important corner cases, i.e., combinations of different subsets of base degradation types, which are prevalent in the real world. しかし、これは重要なコーナーケース、すなわち、現実世界でよく見られる基底劣化型の異なる部分集合の組み合わせを無視している。 0.66
Motivated by this, we propose a unified degradation model by introducing a gate mechanism to randomly select the base degradation types to be included in the degradation process. そこで本研究では, 劣化過程に含まれる基本劣化型をランダムに選択するゲート機構を導入することで, 統一劣化モデルを提案する。 0.85
Formally, I LR = Dg(I HR) 正式には I LR = Dg(I HR) 0.51
= (σg(D1) ◦ σg(D2) ◦ σg(D3)··· σg(Dm))(I HR), (3) where Dg denotes the gated degradation process, and Di ∈ {Dk, Dn, Dj,···}, ∀i ∈ {1, . . . , m}, represents a base degradation type. ここで dg はゲート分解過程を表し、di ∈ {dk, dn, dj,········}、di ∈ {dk, dn, dj, . , m} は基底分解型を表す。
訳抜け防止モード: = ( σg(D1 ) シュ σg(D2 ) シュ σg(D3 ) · · ・ σg(Dm))(I HR ) (3)Dgはゲート劣化過程を表す。 そして Di ∈ { Dk, Dn, Dj, · · · } である。 i ∈ { 1 , . , m } である。 ベース劣化型を表す。
0.91
The gate controller σg determines whether Di is used in the degradation process, i.e., ゲートコントローラσgは、劣化過程、すなわち、Diが使われているかどうかを決定する。 0.59
(cid:40) σg(Di)(I d) = (系統:40) σg(Di)(I d) = 0.56
Di(I d), I d, Di(I d), I d, 0.38
g = 1, g = 0, g = 1, g = 0 である。 0.93
(4) where I d denotes the degraded (or input) HR image. (4) dは劣化した(または入力された)HR画像を表す。 0.53
Note that when all gates g = 1, the gated degradation model is equivalent to the practical degradation model, whereas when all the gates g = 0, it is the same as the traditional non-blind SR. すべてのゲート g = 1 のとき、ゲート分解モデルは実践的劣化モデルと等価であるが、すべてのゲート g = 0 のとき、従来の非盲SRと同じである。 0.78
The gate controller allows to generate various combinations of base degradation types, and hence our degradation model is a unifed model that encompasses nonblind SR, classical blind SR, and practical blind SR. ゲートコントローラは, 基本劣化型を多種に組み合わせることで, 非盲点SR, 古典盲点SR, 実用盲点SRを含む未定義モデルである。
訳抜け防止モード: ゲートコントローラは、ベース劣化タイプの様々な組み合わせを生成することができる。 ですから 我々の劣化モデルは 非盲検SR、古典盲検SR、実用的な盲検SRを含む。
0.65
BlurDown-samplingNoi seJPEGCompressionGTL RGateBicNon-blind SR case BlurClassical blind SR case NoiseCorner degradation case Practical degradation case Blur+Noise+JPEGBlur+Noise BlurDown-sampling NoiseJPEGCompression GTLRGateBicNic-blind SR case BlurClassical blind SR case NoiseCorner degradation case Blur+Noise+JPEGBlur+Noise 0.27
英語(論文から抽出)日本語訳スコア
4. A Comprehensive Analysis of Blind SR with 4. ブラインドsrの包括的解析 0.61
Performance Upper Bounds This section analyzes blind SR networks with the existing classical, practical, and proposed gated degradation model. 本稿では,既存の古典的,実践的,提案されたゲート劣化モデルを用いて,ブラインドSRネットワークを解析する。 0.64
We find that a blind SR network can achieve promising performance with our proposed gated degradation model, while the blind SR network with a practical model has a significant performance drop. 提案したゲート劣化モデルではブラインドSRネットワークが有望な性能を達成できるのに対し,実用的なモデルではブラインドSRネットワークは大きな性能低下を示す。 0.81
Preliminary. FAIG [34] shows a one-branch blind SR network can achieve comparable results compared with the SOTA methods DAN [18] and DASR [28]. 予備。 FAIG[34]は,SOTA法DAN[18]とDASR[28]と比較して,ワンブランチブラインドSRネットワークが同等の結果が得られることを示した。 0.64
In the BSD100 [20] validation dataset with blur degradation type, the performance of a one-branch network is higher than SOTA DAN and DASR, about 0.05 dB. ぼかし劣化型BSD100[20]検証データセットでは、一分岐ネットワークの性能はSOTA DANやDASRよりも約0.05dB高い。 0.76
So, the one-branch network is considered as a base network to analyze the blind SR problem. したがって、一分岐ネットワークは、ブラインドsr問題を解析するためのベースネットワークであると考えられる。 0.72
Similarly, RealESRGAN [29] and BSRGAN [38] adopt a powerful one-branch network RRDBNet as the blind SR network to solve the practical blind SR problem. 同様に、RealESRGAN[29]とBSRGAN[38]は、ブラインドSRネットワークとして強力なワンブランチネットワークRRDBNetを採用し、実用的なブラインドSR問題を解決する。 0.70
Performance Upper Bound. パフォーマンスの上限。 0.64
An essential issue of the practical blind SR is how to evaluate blind SR networks effectively. 実用ブラインドsrの重要な問題は、ブラインドsrネットワークを効果的に評価する方法である。 0.57
Based on the proposed gated degradation model, the performance upper bound can easily be introduced to clearly evaluate the blind SR network. 提案するゲート劣化モデルに基づき,性能上限を導入することでブラインドsrネットワークを明瞭に評価することができる。 0.78
Take a special degradation type bicubic as an example. 例えば、特別な分解型bicubicを例にとりましょう。 0.69
To get the upper bound, we could train a special SR network with bicubic type and test the well-trained network on the corresponding bicubic test dataset. 上界を得るためには、バイコビック型の特殊SRネットワークをトレーニングし、対応するバイコビックテストデータセット上でよく訓練されたネットワークをテストする。 0.62
A similar procedure can obtain the upper bounds of other corner degradation types. 同様の手順は、他のコーナー劣化型の上限を得ることができる。 0.70
The definition of the upper bound is a vital tool to evaluate blind SR. 上境界の定義は、ブラインドSRを評価する重要なツールである。 0.68
Setting. In this section, RRDBNet is used as the primary blind SR network (BSRNet), which is trained on a representative degradation model. 設定。 この節では、RRDBNetを代表的な劣化モデルに基づいて訓練された一次盲点SRネットワーク(BSRNet)として使用する。 0.72
The degradation model includes isotropic Gaussian blur [0.1, 3.0], additive Gaussian noise [1, 30], and JPEG [40, 95]. 劣化モデルは、等方的ガウスブラー[0.1,3.0]、加法的ガウスノイズ[1,30]、JPEG[40,95]を含む。
訳抜け防止モード: 劣化モデルは等方的ガウスのぼかし[0.1, 3.0]を含む。 付加的なガウスノイズ [ 1, 30 ] と JPEG [ 40, 95 ] 。
0.76
To clearly evaluate the BSRNet, we design a validation dataset Practical8, which includes every corner degradation case - {bic, b2.0, n20, j60, b2.0n20, b2.0j60, n20j60, b2.0n20j60}. bsrnetを明確に評価するために、検証データセット practical8 を設計し、すべてのコーナー分解ケース - {bic, b2.0, n20, j60, b2.0n20, b2.0j60, n20j60, b2.0n20j60} を含む。 0.56
Then, we train 8 SR models to get the upper bound on every corner case. そして、8つのSRモデルを訓練し、各コーナーケースの上界を得る。 0.66
Therefore, we can use the PSNR distance between BSRNet and upper bound for the evaluation on Practical8. したがって,BSRNetと上界とのPSNR距離を,Practice8の評価に用いることができる。 0.85
We adopt a similar setting for the classical degradation model. 古典的劣化モデルにも同様の設定を採用する。 0.76
4.1. Analysis of Classical Blind SR 4.1. 古典的ブラインドSRの解析 0.56
Table 1. Average PSNR (dB) of BSRNet with classical degradation models in ×4 blind SR. 表1。 古典的劣化モデルを持つBSRNetの平均PSNR (dB) は ×4 ブラインドSR である。 0.73
Method BSRNet-FAIG [34]) 方法 BSRNet-FAIG [34]) 0.44
Upper bound bic 26.51 26.75 上限 bic 26.51 26.75 0.25
Blur degradation types 1.8 0.6 27.25 28.42 28.71 27.46 ブラー劣化型1.8 0.6 27.25 28.42 28.71 27.46 0.44
1.2 28.07 28.43 1.2 28.07 28.43 0.24
2.4 28.43 28.74 2.4 28.43 28.74 0.24
servation motivates us to investigate the underlying learning ability of blind SR networks, especially on a practical degradation model. サーベイションは、特に実用的な劣化モデルに基づいて、盲点SRネットワークの基盤となる学習能力を調べる動機となる。
訳抜け防止モード: 摂食は盲目のsrネットワークの基盤となる学習能力を調査するモチベーションである。 特に実用的劣化モデルでは
0.74
Figure 3. Comparison of PSNR (dB) of BSRNet with different degradation models. 図3。 BSRNetのPSNR(dB)と劣化モデルの比較 0.67
4.2. Analysis of Practical Blind SR 4.2. 実践的ブラインドSRの解析 0.57
Practical Degradation Model. We firstly train BSRNet with the PD model to get BSRNet-PD. 実用的劣化モデル。 まず、BSRNetをPDモデルで訓練し、BSRNet-PDを得る。 0.64
Figure 3 shows that BSRNet-PD has a significant drop on corner cases bic, blur2.0, noise20, blur2.0n20 while having a minimal drop on corner cases b2.0j60 and noise20j60. 図3は、BSRNet-PDがコーナーケースbic, blur2.0, noise20, blur2.0n20に顕著に低下し、コーナーケースb2.0j60と noise20j60に最小の低下があることを示している。 0.54
Interestingly, in complex case b2.0n20j60, the PSNR distance between BSRNet-PD and the upper bound is 0.09 dB, which is a tiny drop since the PD model focuses on the combination of the blur, noise, and JPEG. 興味深いことに、複雑な場合 b2.0n20j60 では、BSRNet-PD と上界の間の PSNR 距離は 0.09 dB である。
訳抜け防止モード: 興味深いことに、複雑な場合 b2.0n20j60 では、BSRNet - PD と上界の間の PSNR 距離は 0.09 dB である。 それ以来 ほんの少しの減少です PDモデルは、ブラー、ノイズ、JPEGの組み合わせに焦点を当てている。
0.62
Similar to FAIG [34], we train the BSRNet-FAIG on a classical degradation model with isotropic Gaussian blur [0, 3.0]. FAIG [34] と同様に、BSRNet-FAIG を等方的ガウスボウ [0, 3.0] を持つ古典的劣化モデルで訓練する。 0.66
Then, we train 5 SR networks to get the corresponding upper bound on the validation dataset with bicubic (bic) and blur {0.6, 1.2, 1.8, 2.4}. 次に、5つのsrネットワークを訓練し、bicubic (bic) とblub {0.6, 1.2, 1.8, 2.4} で検証データセットの上限値を取得する。 0.62
From Table 1, we find that BSRNet has a slight performance drop (about 0.3 dB) on PSNR compared with the corresponding upper bound. 表1から、BSRNetはPSNR上で、対応する上限よりも若干の性能低下(約0.3dB)があることが分かる。 0.76
The slight performance drop is relatively acceptable on the blind SR problem since it is more challenging than the non-blind SR. 非盲検SRよりも難易度が高いため、盲検SRでは若干の性能低下が比較的受け入れられる。 0.61
This exciting ob- このエキサイティングなob 0.61
Figure 4. Visual comparisons of BSRNet-PD and the corresponding upper bound with PSNR (dB)/SSIM. 図4。 PSNR(dB)/SSIMによるBSRNet-PDと対応する上界の視覚的比較 0.81
Figure 4 shows that BSRNet-PD fails to generate realistic textures on corner cases bic, b2.0, and n20, while the visual results on complex case b2.0n20j60 are promising compared with the upper bound. 図4は、BSRNet-PDがコーナーケースbic,b2.0,n20の現実的なテクスチャを生成するのに失敗し、複雑なケースb2.0n20j60の視覚的結果が上界と比較して有望であることを示している。 0.54
The PSNR value has a small drop of 0.16 dB, which is acceptable. PSNR値は0.16dBと小さく、許容できる。 0.59
bicb2.0n20j60b2.0n20 b2.0j60n20j60b2.0n20 j6023242526272829PSN R(dB)26.0127.1324.66 25.4624.4125.4924.16 26.4527.9525.1725.62 25.0425.5924.4824.01 26.5828.5925.3225.74 25.4625.8624.6724.25 UpperboundBSRNet-PD BSRNet-GD24.5224.09/ 0.7224.56/0.73BSRNet -PDUpper bound29.16/0.8530.68 /0.89BSRNet-PDUpper bound30.95/0.8932.81 /0.91BSRNet-PDUpper boundBSRNet-PDUpper bound27.73/0.7827.89 /0.78b2.0n20j60n20bi cb2.0 bicb2.0n20j60b2.0n20 b20j60b2.0n20j60b20j 6024262626.0127.1324 .6625.4624.4125.4924 .1626.4526.9525.1725 .6225.0425.5924.4824 .0126.5925.3225.7425 .4625.8624.6724.25Up perboundBSRNet-PD BSRNet-GD24.5224.09/ 0.7224.56/0.73BSRNet -PDupperbound29.16/0 .830.68/0.80BSR-PDup perbound29.1630/0.83 0.68/0.89BSR-PDupper boundBSRNet-PDUPuppe rboundBSRNet-PDBSRNe t-PDBSRNet-GD24.0.0. 7224.06/0.73BSRNet-P DUpperboundBSRNet-PD UPupperbound29.16.16 /0.830.1830.68/0.0.0 .0.73BSR2BSR/0.7224. 7224/0.7224/0 0.03
英語(論文から抽出)日本語訳スコア
The analysis for the PD model presents three crucial points: PDモデルの解析には3つの重要なポイントがある。 0.74
1) The blind SR Network can handle the most complex case well. 1)ブラインドSRネットワークは、最も複雑なケースをうまく扱える。 0.73
2) The performance of the blind SR network have a slight drop on a few corner cases, such as n20j60. 2) ブラインドSRネットワークの性能は,n20j60などいくつかのコーナーケースではわずかに低下する。 0.83
3) The quantitative and visual results of most corner degradation types have a significant drop compared with the upper bound. 3) 角部劣化型の量的および視覚的結果は, 上界に比べ有意な低下を示した。 0.74
Gated Degradation Model. Gated Degradation Model の略。 0.60
To address the issue 1 described in Section 1, we apply the proposed GD model to generate all combinations of degradation types for the BSRNet (named BSRNet-GD). 第1節で述べた問題1に対処するために,提案するgdモデルを用いて,bsrnet (bsrnet-gd) の分解型を全て生成する。 0.64
Interestingly, Figure 3 shows that BSRNet-GD achieves 0.82 dB and 0.63 dB improvement on the corner case b2.0 and b2.0n20, respectively. 興味深いことに、図3は、BSRNet-GD がそれぞれコーナーケース b2.0 と b2.0n20 で 0.82 dB と 0.63 dB の改善を達成したことを示している。 0.50
The performance of other corner cases is closer to the corresponding upper bound. 他のコーナーケースのパフォーマンスは、対応する上限に近い。 0.59
The PSNR value of BSRNet-GD has a slight drop by 0.13 dB on complex case b2.0n20j60 compared with BSRNet-PD. BSRNet-GDのPSNR値は、BSRNet-PDと比較して複雑なb2.0n20j60に対して0.13dBわずかに低下する。 0.56
These results support the solutions of issue 2 in Section 1. これらの結果は第1節第2号の解決を支持している。 0.54
A blind SR network with our proposed GD model can surprisingly achieve significant performance on all degradation cases. 提案したGDモデルを用いたブラインドSRネットワークは,すべての劣化事例において驚くほど高い性能を達成できる。 0.62
Figure 5. Visual comparisons of BSRNet-PD, BSRNet-GD, and the corresponding upper bound with PSNR (dB)/SSIM. 図5。 BSRNet-PD, BSRNet-GDおよび対応する上界のPSNR/SSIMによる視覚的比較 0.77
Figure 5 shows that the BSRNet-GD can generate more realistic textures than BSRNet-PD on b2.0 and n20 degradation. 図5は、BSRNet-GDがb2.0とn20の分解でBSRNet-PDよりも現実的なテクスチャを生成することを示している。
訳抜け防止モード: 図5は BSRNet - GDはBSRNet - PD on b2.0 と n20 の分解よりも現実的なテクスチャを生成することができる。
0.58
The sacrifice of complex case b2.0n20j60 is completely acceptable because we can hardly tell the difference between BSRNet-PD and BSRNet-GD on visual results. BSRNet-PDとBSRNet-GDの違いを視覚的結果で区別できないため、複雑なb2.0n20j60の犠牲は完全に受け入れられる。 0.66
Although the practical degradation model can handle some special cases, it is obvious that the practical degradation model cannot guarantee promising quantitative and qualitative results in all corner cases. 実用的劣化モデルは特殊事例を扱うことができるが、実用的劣化モデルはすべてのコーナーケースにおいて有望な量的および定性的な結果を保証できないことは明らかである。 0.72
These quantitative and qualitative comparisons confirm the effectiveness of upper bounds on the issues 3 described in Section 1. これらの量的および定性的な比較は、第1節で記述された問題3における上限の有効性を確認する。 0.58
Based on the proposed gated degradation model: 提案したゲート劣化モデルに基づく。 0.76
1) A blind SR network has a tiny sacrifice in the complex case. 1)複雑な場合,盲点SRネットワークには小さな犠牲が伴う。 0.78
2) The performance of corner cases can achieve obvious improvement compared with the PD model. 2) コーナーケースの性能はPDモデルと比較して明らかな改善が得られた。 0.80
3) A blind SR network can handle all of the degradation types with a small performance drop compared with the upper bound. 3)ブラインドsrネットワークは,すべての劣化型を上界に比べて少ない性能低下で処理することができる。 0.71
5. Experiments 5.1. 5. 実験 5.1。 0.80
Datasets and Implementation Details データセットと実装の詳細 0.72
Datasets. Following existing blind SR methods [6, 18, 28,29,38,39], we use DIV2K (800 images) [1] and Flickr2K (2650 images) [26] dataset for training. データセット。 既存のブラインドSR手法 [6, 18, 2829,38,39] に従って、トレーニングにはDIV2K(800画像)[1]とFlickr2K(2650画像)[26]データセットを使用します。 0.69
The training images are randomly cropped to 128×128 patches that are blurred, noised, and compressed (JPEG). トレーニング画像は、128×128パッチにランダムにトリミングされ、ぼやけ、ノイズ、圧縮される(JPEG)。 0.69
We use benchmark datasets BSD100 [20] and Urban100 [9] for evaluation. 評価にはベンチマークデータセットBSD100[20]とUrban100[9]を使用します。 0.80
Degradation model. To ensure fair quantitative comparison, we adopt a light degradation model to generate the dataset. 劣化モデル。 定量的に比較するために,データセットを生成するために光劣化モデルを採用する。 0.69
Following the setting of BSRGAN [38] and RealESRGAN [29], the light degradation model includes isotropic Gaussian blur [0.1, 3.0], additive Gaussian noise [1, 30], and JPEG [40, 95]. BSRGAN[38]とRealESRGAN[29]の設定に続いて、光劣化モデルは等方的ガウスブラー[0.1,3.0]、加法的ガウスノイズ[1,30]、JPEG[40,95]を含む。
訳抜け防止モード: BSRGAN [38 ] と RealESRGAN [29 ] の設定の後 光劣化モデルには等方的ガウスのぼかし [0.1, 3.0] 付加的なガウスノイズ [ 1, 30 ] と JPEG [ 40, 95 ] 。
0.81
The down-sampling adopts ×4 bicubic in the RealESRGAN version. ダウンサンプリングはRealESRGANバージョンでx4バイキュビックを採用している。 0.49
For the proposed GD model, the probability of every gate is set to 0.5 to generate all degradation cases. 提案したGDモデルでは、全ての劣化ケースを生成するために各ゲートの確率を0.5に設定する。 0.78
Baselines. Based on the analysis in Section 4, ベースライン。 第4節の分析に基づいて 0.68
the proposed GD model is applied to the representative networks as our proposed baseline network. 提案するgdモデルは,提案するベースラインネットワークとして代表ネットワークに適用する。 0.86
We employ RRDBNet [29, 38] and SwinIR [13] to get the baseline networks: CNN-based RRDBNet-GD, transformer-based SwinIR-GD, and GAN-based baseline BSRGAN-GD and SwinIRGAN-GD. 我々は,cnn ベースの rrdbnet-gd,transform er ベースの swinir-gd,gan ベースのベースライン bsrgan-gd と swinirgan-gd のベースラインネットワークを得るために rrdbnet [29, 38] と swinir [13] を採用している。
訳抜け防止モード: RRDBNet [29, 38 ] と SwinIR [13 ] を使ってベースラインネットワークを得る。 transformer - based SwinIR - GD, and GAN - based baseline BSRGAN - GD SwinIRGAN - GD。
0.73
Practical8. In order to quantitatively conduct evaluation, we propose Practical8 test dataset to evaluate blind SR methods. 実用8。 定量的に評価を行うために,視覚的SR手法を評価するための実践8テストデータセットを提案する。 0.68
Practical8 consists of {bic, b2.0, n20, j60, b2.0n20, b2.0j60, n20j60, b2.0n20j60}. 実践8は {bic, b2.0, n20, j60, b2.0n20, b2.0j60, n20j60, b2.0n20j60} からなる。 0.50
The degradation types in Practical8 are based on the combinations of degradation types in the training dataset. practical8の劣化型は、トレーニングデータセットの劣化型の組み合わせに基づいています。 0.71
The evaluation metric employs PSNR to compare MSE-based methods and PSNR/NIQE for GAN-based methods. 評価基準はPSNRを用いてMSE法とGAN法におけるPSNR/NIQEを比較する。 0.65
Training. In our experiments, the Adam [11] optimization method with β1 = 0.9 and β1 = 0.99 is used for training. 訓練だ 実験では, β1 = 0.9 と β1 = 0.99 のアダム[11] 最適化法を訓練に用いた。 0.74
The initial learning rate is set to 2 × 10−4, which is reduced by a half for multi-step [25 × 104, 50 × 104, 75 × 104, 100× 104]. 初期学習率は 2 × 10−4 に設定され、マルチステップ [25 × 104, 50 × 104, 75 × 104, 100 × 104] では半減される。 0.85
A total of 100× 104 iterations are executed by PyTorch. 合計100×104のイテレーションはPyTorchによって実行される。 0.64
The loss function adopts L1 loss between SR results and HR images. 損失関数はsr結果とhr画像のl1損失を採用する。 0.73
5.2. Experiments on MSE-based blind SR 5.2. MSEに基づくブラインドSRの実験 0.54
Networks. Here we consider a series of representative networks for quantitative comparisons, such as SRResNet which is used in prevalent kernel estimation methods, [2, 6, 14, 15, 18] and RRDB network which is used in BSRGAN [38] and RealESRGAN [29] to handle practical blind SR. ネットワーク。 本稿では,bsrgan [38] や realesrgan [29] で使用されている[2, 6, 14, 15, 18] や rrdb ネットワークなど,一般的なカーネル推定法で使用される srresnet など,定量的比較のための代表的なネットワークについて検討する。 0.79
In addition, the representative network RCAN [41] and SwinIR [13] are also employed for quantitative comparison. また、定量的比較には、代表ネットワークRCAN[41]とSwinIR[13]も使用される。 0.71
Notably, all networks are adjusted to the same setting and parameter level to ensure a fair comparison. 特に、全てのネットワークは、公正な比較を保証するために、同じ設定とパラメータレベルに調整される。
訳抜け防止モード: 特に、全てのネットワークは同じ設定とパラメータレベルに調整される。 公正な比較を確保するためです
0.76
Comparison with the state-of-the-art. Table 2 shows 最先端技術との比較 表2 展示 0.69
31.66/0.8931.58/0.89 31.74/0.8919.77/0.42 20.25/0.4420.35/0.46 26.87/0.8228.53/0.87 29.57/0.88BSRNet-PDU pper boundBSRNet-GDBSRNet -GDBSRNet-GDBSRNet-P DBSRNet-PDUpper boundUpper boundb2.0n20j60n20b2 .0 31.66/0.8931.58/0.89 31.74/0.8919.77/0.42 20.25/0.4420.35/0.46 26.87/0.8228.53/0.87 29.57/0.88BSRNet-PDU pper boundBSRNet-GDBSRNet -GDBSRNet-GDBSRNet-P DBSRNet-PDUpper boundb2.0n20j60n20b2 .0 0.03
英語(論文から抽出)日本語訳スコア
Table 2. Average PSNR (dB) of different methods in ×4 blind SR on BSD100 [20] and Urban100 [9]. 表2。 BSD100[20] と Urban100[9] 上の ×4 ブラインドSR の異なるメソッドの PSNR (dB) の平均値。 0.77
The top two results are highlighted in red and blue, respectively. 上位2つはそれぞれ赤と青でハイライトされている。 0.68
Note that we ensure all methods have similar model size for a fair comparison. 公平な比較のために、すべてのメソッドが同様のモデルサイズであることに注意してください。 0.57
Dataset Method BSD100 データセット 方法 BSD100 0.47
Urban100 Bicubic 都市100 バイコビック 0.49
RCAN [41] SRResNet-FAIG [34] RCAN[41] SRResNet-FAIG [34] 0.42
RRDBNet [29, 38] RRDBNet [29, 38] 0.42
SwinIR [13] SwinIR[13] 0.41
RRDBNet-GD (ours) SwinIR-GD (ours) RRDBNet-GD (ours) SwinIR-GD (ours) 0.41
Upper bound (RRDBNet) 上界(RRDBNet) 0.62
Bicubic RCAN [41] バイコビック RCAN[41] 0.38
SRResNet-FAIG [34] SRResNet-FAIG [34] 0.42
RRDBNet [29, 38] RRDBNet [29, 38] 0.42
SwinIR [13] SwinIR[13] 0.41
RRDBNet-GD (ours) SwinIR-GD (ours) RRDBNet-GD (ours) SwinIR-GD (ours) 0.41
Upper bound (RRDBNet) 上界(RRDBNet) 0.62
bic 24.63 25.65 25.58 25.62 25.84 26.25 26.61 26.36 21.89 23.65 23.54 23.53 24.16 24.51 25.55 25.13 bic 24.63 25.65 25.58 25.62 25.84 26.25 26.61 26.36 21.89 23.65 23.54 23.53 24.16 24.51 25.55 25.13 0.21
b2.0 25.40 26.77 26.72 26.76 27.05 27.31 27.58 27.68 22.54 24.67 24.42 24.46 25.10 25.39 26.12 26.38 b2.0 25.40 26.77 26.72 26.76 27.05 27.31 27.58 27.68 22.54 24.67 24.42 24.46 25.10 25.39 26.12 26.38 0.20
n20 21.56 24.63 24.53 24.58 24.77 25.31 25.64 25.46 20.00 22.93 22.88 22.89 23.34 23.57 24.40 23.91 n20 21.56 24.63 24.53 24.58 24.77 25.31 25.64 25.46 20.00 22.93 22.88 22.89 23.34 23.57 24.40 23.91 0.21
j60 24.06 25.16 25.11 25.13 25.27 25.23 25.30 25.30 21.50 23.35 23.26 23.28 23.73 23.67 24.11 23.97 j60 24.06 25.16 25.11 25.13 25.27 25.23 25.30 25.30 21.50 23.35 23.26 23.28 23.73 23.67 24.11 23.97 0.21
Degradation Types b2.0j60 b2.0n20 21.90 24.65 25.36 24.39 25.29 24.26 25.32 24.33 24.48 25.44 25.32 24.95 25.39 25.30 25.49 25.34 22.02 20.36 22.59 23.36 23.16 22.42 23.17 22.48 23.62 22.86 23.05 23.18 23.56 23.83 23.56 23.62 Degradation Types b2.0j60 b2.0n20 21.90 24.65 25.36 24.39 25.29 24.26 25.32 24.33 24.48 25.44 25.32 24.95 25.39 25.30 25.49 25.34 22.02 20.36 22.59 23.36 23.16 22.42 23.17 22.48 23.62 22.86 23.05 23.18 23.56 23.83 23.56 23.62 0.20
n20j60 21.22 24.36 24.32 24.34 24.44 24.38 24.44 24.45 19.74 22.77 22.73 22.75 23.09 22.92 23.26 23.18 n20j60 21.22 24.36 24.32 24.34 24.44 24.38 24.44 24.45 19.74 22.77 22.73 22.75 23.09 22.92 23.26 23.18 0.20
b2.0n20j60 Average 23.14 25.06 24.99 25.02 25.18 25.35 25.55 25.53 21.03 23.21 23.08 23.10 23.55 23.55 24.16 24.02 b2.0n20j60 Average 23.14 25.06 24.99 25.02 25.18 25.35 25.55 25.53 21.03 23.21 23.08 23.10 23.55 23.55 24.16 24.02 0.19
21.72 24.15 24.07 24.11 24.18 24.07 24.14 24.15 20.20 22.35 22.19 22.24 22.53 22.13 22.42 22.44 21.72 24.15 24.07 24.11 24.18 24.07 24.14 24.15 20.20 22.35 22.19 22.24 22.53 22.13 22.42 22.44 0.20
Figure 6. Visual comparisons of our methods and others in ×4 super-resolution. 図6。 ×4超解像における方法と他の手法の視覚的比較 0.70
Please zoom in for a better view. もっとよく見るためにズームインしてください。 0.69
the quantitative comparisons. Firstly, we find that RRDBNet is only about 0.03 dB higher than SRResNet-FAIG on PSNR. 定量的な比較です まず, RRDBNet は PSNR 上の SRResNet-FAIG よりも 0.03 dB ほど高い。 0.78
Interestingly, the non-blind SR method RCAN achieves better performance than SRResNet-FAIG and RRDBNet. 興味深いことに、非盲検SR法RCANは、SRResNet-FAIGやRRDBNetよりも優れた性能を実現する。 0.52
Benefit from channel attention design, RCAN outperforms RRDBNet by about 0.1 dB on all corner degradations in Practical8. チャネルアテンション設計の恩恵を受け、RCAN は RRDBNet を約0.1dB で上回っている。 0.54
Furthermore, SwinIR achieves the highest performance compared with other methods. さらに、SwinIRは他の方法と比較して高いパフォーマンスを達成する。 0.61
Secondly, the average performance of the proposed baseline RRDBNet-GD and SwinIR-GD achieves significant improvement (0.3-0.6 dB) on BSD100 and urban100 datasets. 第二に、提案されたベースラインRRDBNet-GDとSwinIR-GDの平均性能はBSD100とUrban100データセットで大幅な改善(0.3-0.6dB)を達成している。 0.54
Figure 6 shows that our method could generate visually 図6は、この手法が視覚的に 0.66
pleasing results than other works. 他の作品よりも 楽しめます 0.56
Upper bound. To further evaluate the performance of the blind SR networks, we train 8 SR models with the specific degradation types in Practical8. 上界。 ブラインドSRネットワークの性能を更に評価するため,実践8では,特定の劣化型を持つ8種類のSRモデルを訓練する。 0.49
Since RRDBNet is adopted in SOTA practical blind SR methods BSRGAN [38] and RealESRGAN [29], RRDBNet is selected as the basic network to obtain the upper bound. RRDBNet は SOTA の実用的なブラインドSR法 BSRGAN [38] と RealESRGAN [29] に採用されているため、上界を得るための基本ネットワークとして RRDBNet が選択される。 0.82
Table 2 shows that blind SR networks with a practical degradation model have a significant drop compared with the upper bound on some corner degradation cases. 表2は、実用的劣化モデルを持つブラインドsrネットワークが、いくつかのコーナー劣化ケースの上限よりもかなり低下していることを示している。 0.61
The most interesting aspect is that the quantitative difference between a specific case and the upper bound is very large. 最も興味深いのは、特定のケースと上限の定量的な違いが非常に大きいことである。 0.75
Take RRDBNet as an RRDBNet を an 0.31
20.07/0.5221.48/0.64 21.63/0.6421.46/0.63 21.75/0.6621.95/0.67 22.36/0.7023.86/0.45 27.37/0.6827.41/0.68 27.41/0.6827.55/0.69 27.66/0.7028.04/0.72 23.43/0.70Bicubic23. 83/0.72SRResNet23.97 /0.72RCAN23.89/0.72R RDBNet24.09/0.72Swin IR24.42/0.73RRDBNet- GD (Ours) 24.82/0.74SwinIR-GD (Ours) PSNR (dB)/ /SSIMPSNR (dB)/SSIMPSNR (dB)/SSIM 20.07/0.5221.48/0.64 21.63/0.6421.46/0.63 21.75/0.6621.95/0.67 22.36/0.7023.86/0.45 27.37/0.6827.41/0.68 27.41/0.6827.55/0.69 27.66/0.7028.04/0.72 23.43/0.70Bicubic23. 83/0.72SRResNet23.97 /0.72RCAN23.89/0.72R RDBNet24.09/0.72Swin IR24.42/0.73RRDBNet- Gur(Our) 24.82/0.74RDBNet-Gur (Ours 24.72SwinIR24.42/0.7 3RRDBNet-Gur(Ours 24.72Swin-Dur) PSSNR(SNR/BNR/BSNR/D ) 0.07
英語(論文から抽出)日本語訳スコア
Table 3. Average PSNR (dB) of networks of different capacity in ×4 blind SR with the proposed gated degradation model on Set14 [36]. 表3。 Set14[36]上で提案したゲート劣化モデルを用いて, ×4ブラインドSRにおけるネットワーク容量の異なる平均PSNR (dB) を求める。 0.56
SRResNet-16 SRResNet-46 SRResNet-16 SRResNet-46 0.25
RCAN Method Bicubic RCAN 方法 バイコビック 0.38
RRDBNet-5 SwinIR-v1 SwinIR-v2 Upper bound (RRDBNet-5) RRDBNet-5 SwinIR-v1 SwinIR-v2上界(RRDBNet-5) 0.29
#Para. (M) #para。 (M) 0.39
- 1.52 3.73 3.87 3.75 3.85 11.90 - 1.52 3.73 3.87 3.75 3.85 11.90 0.32
bic 25.00 26.45 26.49 26.62 26.53 26.94 27.21 bic 25.00 26.45 26.49 26.62 26.53 26.94 27.21 0.23
b2.0 25.34 27.94 28.16 28.31 28.25 28.59 28.84 b2.0 25.34 27.94 28.16 28.31 28.25 28.59 28.84 0.20
n20 21.77 25.17 25.23 25.36 25.28 25.67 25.92 n20 21.77 25.17 25.23 25.36 25.28 25.67 25.92 0.22
j60 24.29 25.59 25.67 25.75 25.68 25.83 26.07 j60 24.29 25.59 25.67 25.75 25.68 25.83 26.07 0.22
Degradation Types b2.0j60 b2.0n20 21.91 24.51 25.56 25.04 25.57 25.12 25.66 25.33 25.22 25.62 25.77 25.73 25.87 25.87 b2.0j60 b2.0n20 21.91 24.51 25.56 25.04 25.57 25.12 25.66 25.33 25.22 25.62 25.77 25.73 25.87 25.87 0.19
n20j60 21.46 24.53 24.58 24.68 24.59 24.77 24.91 n20j60 21.46 24.53 24.58 24.68 24.59 24.77 24.91 0.20
b2.0n20j60 Average 23.25 25.54 25.61 25.74 25.67 25.95 26.13 b2.0n20j60 平均 23.25 25.54 25.61 25.74 25.67 25.95 26.13 0.19
21.73 24.04 24.09 24.19 24.15 24.30 24.37 21.73 24.04 24.09 24.19 24.15 24.30 24.37 0.21
3.75 26.75 3.75 26.75 0.29
28.74 25.48 28.74 25.48 0.29
25.81 25.63 25.81 25.63 0.29
25.96 24.74 25.96 24.74 0.29
24.32 25.93 24.32 25.93 0.29
Table 4. Average PSNR (dB) of RRDBNet in ×4 blind SR with light and hard degradation models on Set14 [36]. 表4。 RRDBNetの平均PSNR(dB)は、Set14[36]上の光および硬度劣化モデルを持つ×4ブラインドSRである。 0.56
Method RRDBNet-GD-light RRDBNet-GD-hard 方法 RRDBNet-GD-light RRDBNet-GD-hard 0.27
RRDBNet-GD-light RRDBNet-GD-hard RRDBNet-GD-light RRDBNet-GD-hard 0.16
bic 26.53 26.53 b2.0n20 25.22 25.12 bic 26.53 26.53 b2.0n20 25.22 25.12 0.21
Degradation Types n20 b2.0 25.28 28.25 25.22 28.11 b2.0j60 n20j60 24.59 25.62 26.65 24.56 劣化型n20 b2.0 25.28 28.25 25.22 28.11 b2.0j60 n20j60 24.59 25.62 26.65 24.56 0.19
j60 25.68 25.68 j60 25.68 25.68 0.26
b2.0n20j60 b2.0n20j60 0.13
24.15 24.08 24.15 24.08 0.25
color-n20 Poisson-n20 色n20 Poisson-n20 0.37
RRDBNet-GD-light RRDBNet-GD-hard RRDBNet-GD-light RRDBNet-GD-hard 0.16
24.93 25.52 24.93 25.52 0.25
24.66 25.43 24.66 25.43 0.25
26.71 26.90 26.71 26.90 0.25
26.56 26.83 26.56 26.83 0.25
example, it is apparent that the bic, b2.0, and b2.0n20 cases have a large performance drop compared with other cases. 例えば、bic、b2.0、b2.0n20のケースは、他のケースと比較して大きなパフォーマンス低下があることが明らかである。
訳抜け防止モード: 例を挙げると bic、b2.0、b2.0n20のケースは、他のケースに比べて性能が大幅に低下する。
0.71
Based on the proposed GD model, there is a significant improvement in all corner cases, such as bicubic (nonblind SR), b2.0 (classical blind SR), and complex case b2.0n20j60 (practical blind SR). 提案したGDモデルに基づいて、バイコビック (nonblind SR)、b2.0 (classical blind SR)、b2.0n20j60 (practical blind SR) などのすべてのコーナーケースに顕著な改善がある。 0.67
Notably, there are also great differences in the improvement of different cases. 特に、異なるケースの改善には大きな違いがあります。 0.60
For example, the b2.0j60 case has the smallest improvement, and bic case has a great improvement compared with the upper bounds. 例えば、b2.0j60のケースは最も改善が最小であり、bicのケースは上界に比べて大きく改善されている。 0.69
Network capacity. Table 3 shows the comparisons of blind SR networks with different network parameters and structures on the GD model. ネットワーク容量。 表3は、GDモデル上の異なるネットワークパラメータと構造を持つブラインドSRネットワークの比較を示す。 0.78
The SRResNet-16 with 16 residual blocks has 1.52M parameters, but it just has a 0.39 dB drop compared with the upper bound on average PSNR. 16の残留ブロックを持つSRResNet-16は1.52Mのパラメータを持つが、平均PSNRの上限よりも0.39dBの低下がある。 0.80
Furthermore, SRResNet-46 and RRDBNet-5 get about 0.1 dB improvement compared with SRResNet-16. さらに、SRResNet-46とRRDBNet-5はSRResNet-16と比較して0.1dB改善されている。 0.56
Benefitting from the attention mechanism, RCAN and SwinIRv1 (version1) achieve better performance with similar parameters. 注意機構、RCANとSwinIRv1(バージョン1)の利点は、同様のパラメータでより良いパフォーマンスを実現する。 0.67
Finally, SwinIR-v2 (version2) with 11.9 M can further improve the SR results. 最後に、1.9MのSwinIR-v2 (version2)はSR結果をさらに改善することができる。 0.53
Interestingly, the degradation b2.0n20j60 only has a slight improvement (0.07 dB), while the easy corner degradations have a significant improvement (e g , 0.27 dB in bicubic). 興味深いことに、b2.0n20j60の劣化はわずかな改善(0.07db)しかなく、コーナーの劣化は著しい改善(bicubicでは 0.27db)がある。 0.64
Light vs. ライト vs. ライト。 0.55
hard degradation models. We further 硬度劣化モデル。 私たちはさらに 0.64
apply the proposed GD model with a hard scenario, which includes various blur types (isotropic, anisotropic, generalized isotropic/anisotropi c, and plateau isotropic/anisotropi c Gaussian blur), noises (additive grey/color Gaussian noise and Poisson grey/color noise) and JPEG compression. 提案するgdモデルに,様々なボケタイプ(等方性,異方性,一般化等方性/異方性,高原等方性/異方性ガウス性ボケ),ノイズ(付加グレイ/ガウス性ノイズとポアソングレイ/カラーノイズ),jpeg圧縮を含むハードシナリオを適用する。 0.69
Table 4 shows that the performance of RRDBNetGD-hard has a slight drop on the light cases, while it has a more significant improvement on the new cases. 表4は、rrdbnetgd-hardのパフォーマンスが軽いケースにわずかに低下していることを示していますが、新しいケースにはさらに大きな改善があります。 0.65
5.3. Experiments on GAN-based Blind SR 5.3. GANベースブラインドSRの実験 0.56
Experimental setup. Similar to Section 5.1, we adopt the same settings to train the GAN-based networks. 実験装置。 セクション5.1と同様、GANベースのネットワークをトレーニングするために同じ設定を採用しています。 0.64
We train three representative models, SRGAN [12], BSRGAN [38] (RealESRGAN [29]), and SwinIRGAN [13] by the same light degradation model in Section 5.1. SRGAN [12], BSRGAN [38] (RealESRGAN [29]), SwinIRGAN [13] の3つの代表的なモデルを第5章1節の光劣化モデルで訓練する。 0.78
The loss function combines L1 loss, perceptual loss, and GAN loss, with weights [1, 1, 0.1], respectively. 損失関数はL1損失、知覚損失、GAN損失をそれぞれ重み[1, 1, 0.1]と組み合わせる。 0.72
The baseline BSRGANGD and SwinIRGAN-GD are trained on the proposed GD model. ベースラインのBSRGANGDとSwinIRGAN-GDは提案したGDモデルに基づいて訓練される。 0.60
The discriminator adopts a U-Net structure in RealESRGAN [29]. 判別器は、RealESRGAN[29]でU-Net構造を採用する。 0.62
The upper bound of Practical8 is also provided to evaluate the performance of different GAN models quantitatively. Practical8の上限は、異なるGANモデルの性能を定量的に評価するためにも設けられている。 0.66
Comparison with the stat-of-the-arts. Table 5 shows SRGAN tends to sacrifice PSNR performance to generate perceptual textures while BSRGAN and SwinIRGAN can achieve higher reconstructive performance when generating texture details. 最先端技術との比較 表5では、SRGANはPSNR性能を犠牲にして知覚的なテクスチャを生成する傾向を示し、一方、BSRGANとSwinIRGANはテクスチャの詳細を生成する際に高い再構築性能を達成する。 0.56
Based on our proposed GD model, the reconstructive performance achieves further improvement compared with the practical degradation model. 提案したGDモデルに基づいて, 実際の劣化モデルと比較して, 再構成性能が向上する。 0.77
Interestingly, SwinIRGAN pays more attention to reconstruction performance PSNR while the perceptual metric NIQE value is higher than BSRGAN-GD. 興味深いことに、SwinIRGANは再建性能PSNRにより多くの注意を払う一方、知覚量NIQE値はBSRGAN-GDよりも高い。 0.56
Figure 7 shows that our methods can generate realistic visual results compared with existing methods. 図7は既存の手法と比較して現実的な視覚的結果が得られることを示している。 0.60
We validate our method on a real-world dataset RealSRSet used in BSRGAN [38], which consists of real images downloaded from the Internet. 我々は,BSRGAN[38]で使用されている実世界のデータセットRealSRSetを用いて,インターネットからダウンロードした実画像からなる手法を検証する。 0.74
BSRGAN-GD achieves 5.11 in NIQE, much better than BSRGAN with a light practical degradation model, which is 6.06. BSRGAN-GD は NIQE で 5.11 に達し、BSRGAN よりも6.06 の軽量の実用的劣化モデルではるかに優れている。 0.67
英語(論文から抽出)日本語訳スコア
Table 5. Average NIQE/ PSNR (dB) of different GAN-based methods in ×4 blind SR on Urban100 [9]. テーブル5。 都市100[9]上の ×4 ブラインドSR における異なる GAN 法の平均 NIQE/PSNR (dB) について 0.74
The top two results are highlighted in red and blue, respectively. 上位2つはそれぞれ赤と青でハイライトされている。 0.68
Note that we ensure all methods have similar model size for a fair comparison. 公平な比較のために、すべてのメソッドが同様のモデルサイズであることに注意してください。 0.57
Method Bicubic SRGAN [12] 方法 バイコビック SRGAN [12] 0.38
BSRGAN [29, 38] BSRGAN[29, 38] 0.42
SwinIRGAN [13] SwinIRGAN [13] 0.42
BSRGAN-GD (ours) BSRGAN-GD (ours) 0.42
SwinIRGAN-GD (ours) Upper bound (BSRGAN) NIQE SwinIRGAN-GD (ours) upper bound (BSRGAN) NIQE 0.50
Metric bic NIQE 7.08 PSNR 21.89 NIQE 4.25 PSNR 21.75 NIQE 4.51 PSNR 22.18 NIQE 4.39 PSNR 22.92 NIQE 4.04 PSNR 23.31 NIQE 4.01 PSNR 24.24 3.79 PSNR 23.66 メートル法 bic NIQE 7.08 PSNR 21.89 NIQE 4.25 PSNR 21.75 NIQE 4.51 PSNR 22.18 NIQE 4.39 PSNR 22.92 NIQE 4.04 PSNR 23.31 NIQE 4.01 PSNR 24.24 3.79 PSNR 23.66 0.43
b2.0 7.89 22.54 5.00 23.16 5.77 23.39 5.01 24.10 4.27 24.43 4.38 25.20 4.10 25.17 b2.0 7.89 22.54 5.00 23.16 5.77 23.39 5.01 24.10 4.27 24.43 4.38 25.20 4.10 25.17 0.20
n20 8.97 20.00 3.49 21.08 4.02 21.58 4.29 22.10 3.91 22.51 4.11 23.28 3.88 22.58 n20 8.97 20.00 3.49 21.08 4.02 21.58 4.29 22.10 3.91 22.51 4.11 23.28 3.88 22.58 0.21
j60 7.35 21.50 3.88 21.55 4.25 21.96 4.40 22.48 3.95 22.45 4.16 22.98 3.92 22.58 j60 7.35 21.50 3.88 21.55 4.25 21.96 4.40 22.48 3.95 22.45 4.16 22.98 3.92 22.58 0.21
Degradation Types b2.0n20 b2.0j60 劣化型 b2.0n20 b2.0j60 0.16
8.42 20.36 3.69 21.68 4.24 21.81 4.46 22.18 4.18 22.40 4.29 23.13 3.86 22.41 8.42 20.36 3.69 21.68 4.24 21.81 4.46 22.18 4.18 22.40 4.29 23.13 3.86 22.41 0.21
7.93 22.02 4.59 22.42 5.26 22.51 4.91 22.84 4.91 22.69 4.55 22.94 4.00 22.51 7.93 22.02 4.59 22.42 5.26 22.51 4.91 22.84 4.91 22.69 4.55 22.94 4.00 22.51 0.21
n20j60 8.99 19.74 3.46 20.95 3.97 21.38 4.08 21.82 3.63 21.62 4.09 22.17 3.73 21.77 n20j60 8.99 19.74 3.46 20.95 3.97 21.38 4.08 21.82 3.63 21.62 4.09 22.17 3.73 21.77 0.20
b2.0n20j60 Average b2.0n20j60 平均値 0.29
8.37 20.20 3.65 21.45 4.36 21.51 4.36 21.83 4.57 21.62 4.72 21.86 3.87 21.52 8.37 20.20 3.65 21.45 4.36 21.51 4.36 21.83 4.57 21.62 4.72 21.86 3.87 21.52 0.21
8.13 21.03 4.00 21.76 4.55 22.04 4.49 22.53 4.18 22.63 4.29 23.23 3.89 22.78 8.13 21.03 4.00 21.76 4.55 22.04 4.49 22.53 4.18 22.63 4.29 23.23 3.89 22.78 0.21
Figure 7. Visual comparisons of our methods and others in ×4 Blind SR. 図7。 ×4 Blind SRにおける手法や他の手法の視覚的比較 0.76
Lower NIQE score indicates better perceptual quality, and higher PSNR indicates less distortion. 低いNIQEスコアは知覚品質が良く、高いPSNRは歪みが少ない。 0.57
Please zoom in for a better view. もっとよく見るためにズームインしてください。 0.69
5.4. Discussion 6. Conclusion 5.4. 討論 結論 0.28
To further adapt the proposed GD model for the realworld scenario, an intuitive way is to enlarge the degradation space. 提案するgdモデルを現実のシナリオにさらに適応させるためには、分解空間を拡大する直感的な方法がある。 0.72
We apply this simple scheme in Section 5.2, Table 4 shows the potential ability to handle complex cases in real-world scenarios. この単純なスキームをセクション5.2で適用し、実世界のシナリオで複雑なケースを扱う能力を示す。 0.74
Different from BSRGAN [38] and RealESRGAN [29] that tends to provide a powerful degradation model, our work focuses on how to fairly and quantitatively evaluate blind SR networks. BSRGAN[38]やRealESRGAN[29]と異なり、我々はブラインドSRネットワークを適切に定量的に評価する方法に焦点を当てている。 0.62
In addition, our proposed degradation model is complement to that of BSRGAN and addresses the important corner cases that were not considered in BSRGAN. さらに,提案手法はBSRGANを補完するものであり,BSRGANでは考慮されなかった重要なコーナーケースに対処する。 0.67
We can easily apply the proposed GD strategy to a complex degradation model, such as the degradation model in BSRGAN and RealESRGAN. BSRGANとRealESRGANの劣化モデルのような複雑な劣化モデルに提案したGD戦略を簡単に適用できる。 0.74
In summary, as the degradations are extremely complex in real-world applications, the degradation model, baseline, and upper bound would be an important topic for future blind SR research. 要約すると、実際の応用では劣化が非常に複雑であるため、劣化モデル、ベースライン、上界は将来の盲点SR研究にとって重要なトピックである。 0.70
In this paper, we have proposed a gated degradation model to unify the non-blind SR, classical SR, and practical SR. 本稿では,非盲点SR,古典的SR,実践的SRを統一するゲート劣化モデルを提案する。 0.66
Based on the proposed degradation model, we provide a detailed, quantitative, and comprehensive analysis to evaluate the learning ability of a blind SR network with classical and practical degradation models. 提案する劣化モデルに基づいて,ブラインドsrネットワークの学習能力を古典的かつ実用的な劣化モデルで評価するための詳細な,定量的,包括的分析を行う。 0.88
Further, we introduce a practical8 validation dataset to evaluate the blind SR network with the performance upper bounds quantitatively. さらに,性能上界のブラインドSRネットワークを定量的に評価する実用的な8つの検証データセットを提案する。 0.75
Moreover, we establish a series of strong baselines, including CNN-based, transformer-based and GAN-based. さらに,CNNベース,トランスフォーマーベース,GANベースなど,一連の強力なベースラインを確立する。 0.68
Experimental results show that our proposed baselines achieve state-of-the-art performance for practical blind SR on most degradation cases, which can facilitate future research. 実験の結果,提案するベースラインは,ほとんどの劣化事例において実用ブラインドsrの最先端性能を達成でき,今後の研究が促進されることがわかった。 0.62
Acknowledgements This work was supported by the Grant of DaSAIL Project P0030935 funded by PolyU/UGC and by the National Natural Science Foundation of China (61906184). この研究は、PolyU/UGCによって資金提供されたDaSAILプロジェクトP0030935と、中国自然科学財団(61906184)によって支援された。 0.74
22.49/8.45Bicubic23. 75/2.71SRGAN24.03/2. 84BSRGAN23.94/2.80Sw inIRGAN24.69/2.92BSR GAN-GD (Ours)25.43/2.88Swin IRGAN-GD (Ours)PSNR (dB)/NIQE20.47/6.841 9.93/2.4620.12/2.422 0.34/2.4320.58/1.802 1.09/1.60PSNR (dB)/NIQE 22.49/8.45Bicubic23. 75/2.71SRGAN24.03/2. 84BSRGAN23.94/2.80Sw inIRGAN24.69/2.92BSR GAN-GD (Ours)25.43/2.88Swin IRGAN-GD (Ours)PSNR (dB)/NIQE20.47/6.841 9.93/2.4620.12/2.422 0.34/2.4320.58/1.802 1.09/1.60PSNR (dB)/NIQE 0.10
英語(論文から抽出)日本語訳スコア
References [1] Eirikur Agustsson and Radu Timofte. eirikur agustsson と radu timofte を参照。 0.47
Ntire 2017 challenge on single image super-resolution: Dataset and study. シングルイメージ超解像に関する2017年の挑戦:データセットと研究。 0.73
In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, volume 3, page 2, 2017. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, Volume 3, page 2, 2017
訳抜け防止モード: IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops に参加して 巻3、巻2、2017。
0.79
5 [2] Sefi Bell-Kligler, Assaf Shocher, and Michal Irani. 5 [2] sefi bell-kligler, assaf shocher, およびmichal irani。 0.52
Blind super-resolution kernel estimation using an internal-gan. 内部ganを用いたブラインド超解像核推定 0.66
Advances in Neural Information Processing Systems, 32, 2019. ニューラル・インフォメーション・プロセッシング・システムズ32, 2019の進歩。 0.49
5 [3] Jianrui Cai, Hui Zeng, Hongwei Yong, Zisheng Cao, and Lei Zhang. 5 [3]Jianrui Cai、Hui Zeng、Hongwei Yong、Zisheng Cao、Lei Zhang。 0.38
Toward real-world single image super-resolution: A In Proceedings of the new benchmark and a new model. 実世界シングルイメージスーパーレゾリューションに向けて:新しいベンチマークと新しいモデルのインプロシージャ。 0.67
IEEE/CVF International Conference on Computer Vision, pages 3086–3095, 2019. IEEE/CVF International Conference on Computer Vision, page 3086–3095, 2019 0.46
1, 2 [4] Victor Cornillere, Abdelaziz Djelouah, Wang Yifan, Olga Sorkine-Hornung, and Christopher Schroers. 1, 2 4] ヴィクトル・コルネイル、アブデラジズ・ジェロウア、ワン・イファン、オルガ・ソルキン=ホルン、クリストファー・シュローアーズ。 0.41
Blind image super-resolution with spatially variant degradations. 空間変化劣化を伴うブラインド画像超解像 0.70
ACM Transactions on Graphics (TOG), 38(6):1–13, 2019. ACM Transactions on Graphics (TOG), 38(6):1–13, 2019 0.43
1, 2 [5] Chao Dong, Chen Change Loy, Kaiming He, and Xiaoou Tang. 1, 2 5]チャ・ドン、チェンはロイ、カイミング・ヒ、シャオ・タンを交代させる。 0.47
Learning a deep convolutional network for image In European conference on computer visuper-resolution. 画像のための深い畳み込みネットワークを学ぶ ヨーロッパにおけるコンピュータビスーパーレゾリューションに関する会議。 0.75
sion, pages 184–199. Springer, 2014. 184-199頁。 2014年春。 0.41
1, 2 [6] Jinjin Gu, Hannan Lu, Wangmeng Zuo, and Chao Dong. 1, 2 [6]ジンジング、ハンナン・ル、ワンメン・ズー、チャオ・ドン 0.46
Blind super-resolution with iterative kernel correction. 繰り返しカーネル補正によるブラインド超解像 0.70
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 1604–1613, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 1604–1613, 2019。
訳抜け防止モード: IEEE / CVF Conference on Computer Vision and Pattern Recognition に参加して 164-1613頁、2019年。
0.82
1, 2, 3, 5 1, 2, 3, 5 0.43
[7] Muhammad Haris, Greg Shakhnarovich, and Norimichi Ukita. [7]ムハンマド・ハリス、グレッグ・シャフナロヴィチ、宇喜多教通。 0.44
Deep backprojection networks for super-resolution. 超高解像度のための深いバックプロジェクションネットワーク。 0.49
In Conference on Computer Vision and Pattern Recognition, 2018. 2018年、コンピュータビジョンとパターン認識に関する会議。 0.76
2 [8] Jingwen He, Chao Dong, and Yu Qiao. 2 [8]Jingwen He、Chao Dong、Yu Qiao。 0.37
Modulating image restoration with continual levels via adaptive feature modification layers. 適応的特徴修正層による連続レベルの画像復元の変調 0.86
In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2019. 2019年6月、IEEE Conference on Computer Vision and Pattern Recognition (CVPR)で発表された。 0.76
2 [9] Jia-Bin Huang, Abhishek Singh, and Narendra Ahuja. 2 9]jia-bin huang、abhishek singh、narendra ahuja。 0.49
Single image super-resolution from transformed self-exemplars. トランスフォーメーション型自己表現による単一画像の超解像 0.50
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 5197–5206, 2015. Proceedings of the IEEE conference on computer vision and pattern recognition, page 5197–5206, 2015
訳抜け防止モード: ieee conference on computer vision and pattern recognition(ieee conference on computer vision and pattern recognition)の開催にあたって 5197-5206頁、2015年。
0.50
5, 6, 8 [10] Jiwon Kim, Jung Kwon Lee, and Kyoung Mu Lee. 5, 6, 8 10]キム・ジウォン、ジョン・クォン・リー、ケイン・ム・リー 0.44
Accurate image super-resolution using very deep convolutional networks. 深部畳み込みネットワークを用いた高精度画像超解像 0.70
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 1646–1654, 2016. Proceedings of the IEEE conference on computer vision and pattern recognition, page 1646–1654, 2016
訳抜け防止モード: In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 1646-1654頁、2016年。
0.82
2 [11] Diederik P Kingma and Jimmy Ba. 2 11]Diederik P KingmaとJimmy Ba。 0.39
Adam: A method for arXiv preprint arXiv:1412.6980, adam: arxiv プレプリント arxiv:1412.6980 の方法 0.54
stochastic optimization. 2014. 確率最適化。 2014. 0.53
5 [12] Christian Ledig, Lucas Theis, Ferenc Husz´ar, Jose Caballero, Andrew Cunningham, Alejandro Acosta, Andrew P Aitken, Alykhan Tejani, Johannes Totz, Zehan Wang, et al Photorealistic single image super-resolution using a generative adversarial network. 5 12]christian ledig, lucas theis, ferenc husz ́ar, jose caballero, andrew cunningham, alejandro acosta, andrew p aitken, alykhan tejani, johannes totz, zehan wang, et al photorealistic single image super- resolution using a generative adversarial network. (英語) 0.41
In CVPR, volume 2, page 4, 2017. cvpr』第2巻、2017年4頁。 0.52
2, 7, 8 [13] Jingyun Liang, Jiezhang Cao, Guolei Sun, Kai Zhang, Luc Van Gool, and Radu Timofte. 2, 7, 8 [13]ジンギュン・リョン、ジエシャン・曹、グーリ・サン、カイ・チャン、リュック・ヴァン・グール、ラドゥ・ティモフテ。
訳抜け防止モード: 2, 7, 8 [13 ]金玉梁、江張曹、宮居日、 Kai Zhang氏、Luc Van Gool氏、Radu Timofte氏。
0.55
Swinir: Image restoration using swin transformer. Swinir: Swin transformerを使ったイメージ復元。 0.84
In IEEE International Conference on Computer Vision Workshops, 2021. 2021年、ieee international conference on computer vision workshopsにて発表。 0.81
5, 6, 7, 8 5, 6, 7, 8 0.42
[14] Jingyun Liang, Guolei Sun, Kai Zhang, Luc Van Gool, and Radu Timofte. [14]ジンギュン・リョン、グーリ・サン、カイ・チャン、リュック・ヴァン・グール、ラドゥ・ティモフテ。 0.41
Mutual affine network for spatially variant kernel estimation in blind image super-resolution. ブラインド画像超解像における空間的変種カーネル推定のための相互アフィンネットワーク 0.61
In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pages 4096–4105, October 2021. In Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), page 4096–4105, October 2021
訳抜け防止モード: IEEE / CVF International Conference on Computer Vision (ICCV) に参加して 4096-4105頁、2021年10月。
0.82
5 [15] Jingyun Liang, Kai Zhang, Shuhang Gu, Luc Van Gool, and Radu Timofte. 5 [15]ジンギュン・リョン、カイ・チャン、ショーン・グ、リュック・ヴァン・グール、ラドゥ・ティモフテ。 0.42
Flow-based kernel prior with application to In Proceedings of the IEEE/CVF blind super-resolution. IEEE/CVFブラインド超解像のIn Proceedingsへの応用に先立つフローベースのカーネル。 0.55
Conference on Computer Vision and Pattern Recognition, pages 10601–10610, 2021. conference on computer vision and pattern recognition, pages 10601–10610, 2021. コンピュータビジョンとパターン認識に関する会議。 0.59
5 [16] Bee Lim, Sanghyun Son, Heewon Kim, Seungjun Nah, and Kyoung Mu Lee. 5 [16]ビー・リム、サンヒョンの息子、ヒョン・キム、スンジュン・ナー、キョン・ム・リー 0.52
Enhanced deep residual networks for single image super-resolution. 単一画像超解像のための深層残差ネットワークの拡張 0.69
In The IEEE conference on computer vision and pattern recognition (CVPR) workshops, volume 1, page 4, 2017. The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, Volume 1, page 4, 2017
訳抜け防止モード: The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops(英語) 巻1、巻4、2017。
0.76
2 [17] Andreas Lugmayr, Martin Danelljan, and Radu Timofte. 2 Andreas Lugmayr氏、Martin Danelljan氏、Radu Timofte氏。 0.37
Unsupervised learning for real-world super-resolution. 現実世界の超解像のための教師なし学習 0.45
In 2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW), pages 3408–3416. 2019年、IEEE/CVF International Conference on Computer Vision Workshop (ICCVW)、3408-3416頁。 0.76
IEEE, 2019. 2019年、IEEE。 0.67
1, 2 [18] Zhengxiong Luo, Yan Huang, Shang Li, Liang Wang, and Tieniu Tan. 1, 2 [18]Zhengxiong Luo、Yan Huang、Shang Li、Liang Wang、Tieniu Tan。 0.56
Unfolding the alternating optimization for blind super resolution. ブラインドスーパーレゾリューションの交代最適化を展開する。 0.61
arXiv preprint arXiv:2010.02631, 2020. arxiv プレプリント arxiv:2010.02631, 2020 0.44
1, 2, 3, 4, 5 1, 2, 3, 4, 5 0.43
[19] Zhengxiong Luo, Yan Huang, Shang Li, Liang Wang, and Tieniu Tan. 【19]張興、ヤン・フアン、チャン・リー、梁・ワン、ティニウ・タン 0.44
End-to-end alternating optimization for blind super resolution. ブラインド超解像のエンドツーエンド交互最適化 0.57
arXiv preprint arXiv:2105.06878, 2021. arXiv preprint arXiv:2105.06878, 2021 0.40
1, 2 [20] David Martin, Charless Fowlkes, Doron Tal, and Jitendra Malik. 1, 2 20] デビッド・マーティン チャールズズ・フクロウクス ドロン・タル ジテンドラ・マリク 0.37
A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics. 人間のセグメント化自然画像データベースとそのセグメンテーションアルゴリズムの評価と生態統計測定への応用 0.78
In Computer Vision, 2001. コンピュータビジョン、2001年。 0.73
ICCV 2001. 2001年のiccv。 0.56
Proceedings. Eighth IEEE International Conference on, volume 2, pages 416–423. 手続きだ 第8回ieee国際会議、第2巻416-423頁。 0.53
IEEE, 2001. 2001年、IEEE。 0.70
4, 5, 6 [21] Seobin Park, Jinsu Yoo, Donghyeon Cho, Jiwon Kim, and Tae Hyun Kim. 4, 5, 6 【21】セオビン・パーク、ジンス・ヨ、ドンヒョン・チョー、ジウォン・キム、テヒョン・キム 0.42
Fast adaptation to super-resolution networks In Computer Vision–ECCV 2020: 16th via meta-learning. コンピュータビジョン-eccv 2020: 16th via meta-learning スーパーレゾリューションネットワークへの高速適応 0.72
European Conference, Glasgow, UK, August 23–28, 2020, Proceedings, Part XXVII 16, pages 754–769. 欧州会議, グラスゴー, 英国, 8月23-28日, 2020, proceedings, part xxvii 16, pages 754-769。 0.71
Springer, 2020. スプリンガー、2020年。 0.59
1, 2 [22] Mohammad Saeed Rad, Behzad Bozorgtabar, Urs-Viktor Marti, Max Basler, Hazim Kemal Ekenel, and Jean-Philippe Thiran. 1, 2 Mohammad Saeed Rad, Behzad Bozorgtabar, Urs-Viktor Marti, Max Basler, Hazim Kemal Ekenel, Jean-Philippe Thiran
訳抜け防止モード: 1, 2 [22 ]Mohammad Saeed Rad, Behzad Bozorgtabar, Urs - Viktor Marti, マックス・バスラー、ハジム・ケマル・エケネル、ジャン・フィリップ・ティラン。
0.53
Srobb: Targeted perceptual loss for single image super-resolution. srobb: 単一の画像の超解像度に対する知覚損失を目標とする。 0.56
In The IEEE International Conference on Computer Vision (ICCV), October 2019. 2019年10月、IEEE International Conference on Computer Vision (ICCV)で発表された。 0.73
2 [23] Mehdi SM Sajjadi, Bernhard Sch¨olkopf, and Michael Hirsch. 2 [23]Mehdi SM Sajjadi、Bernhard Sch solkopf、Michael Hirsch。 0.38
Enhancenet: Single image super-resolution through In Computer Vision (ICCV), automated texture synthesis. Enhancenet: In Computer Vision (ICCV)による単一画像の超解像、自動テクスチャ合成。 0.81
2017 IEEE International Conference on, pages 4501–4510. 2017年ieee国際会議、4501-4510頁。 0.68
IEEE, 2017. 2017年、IEEE。 0.63
2 [24] Assaf Shocher, Nadav Cohen, and Michal Irani. 2 [24]Assaf Shocher、Nadav Cohen、Michal Irani。 0.36
“zero-shot” In Proceedsuper-resolut ion using deep internal learning. 「ゼロショット」 深層学習を用いたProceedsuper- resolution 0.68
ings of the IEEE conference on computer vision and pattern recognition, pages 3118–3126, 2018. ieee conference on computer vision and pattern recognitionのings、2018年3118-3126頁。 0.68
1, 2 [25] Jae Woong Soh, Sunwoo Cho, and Nam Ik Cho. 1, 2 25]jae woong soh、sunwoo cho、nam ik cho。 0.49
Metatransfer learning for zero-shot super-resolution. ゼロショット超解像のためのメタトランスファー学習 0.47
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 3516–3525, 2020. The Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 3516–3525, 2020。
訳抜け防止モード: IEEE / CVF Conference on Computer Vision and Pattern Recognition に参加して 3516-3525頁、2020年。
0.84
1, 2 1, 2 0.43
英語(論文から抽出)日本語訳スコア
image super-resolution. arXiv preprint arXiv:2103.14006, 2021. イメージ超解像度。 arXiv preprint arXiv:2103.14006, 2021 0.52
1, 2, 3, 4, 5, 6, 7, 8 1, 2, 3, 4, 5, 6, 7, 8 0.42
[39] Kai Zhang, Wangmeng Zuo, and Lei Zhang. [39]kai zhang、wangmeng zuo、lei zhang。 0.49
Learning a single convolutional super-resolution network for multiIn Proceedings of the IEEE Conference ple degradations. IEEE ConferenceのマルチInプロセッシングのための単一の畳み込み超解像ネットワークを学習する。 0.72
on Computer Vision and Pattern Recognition, pages 3262– 3271, 2018. コンピュータビジョンとパターン認識について、ページ3262-3271, 2018。 0.74
1, 2, 5 [40] Wenlong Zhang, Yihao Liu, Chao Dong, and Yu Qiao. 1, 2, 5 [40]Wenlong Zhang、Yihao Liu、Chao Dong、Yu Qiao。 0.38
Ranksrgan: Generative adversarial networks with ranker for In Proceedings of the IEEE/CVF image super-resolution. Ranksrgan: In Proceedings of the IEEE/CVF Image Super- resolution のローダ付き生成敵ネットワーク。 0.80
International Conference on Computer Vision, pages 3096– 3105, 2019. コンピュータビジョン国際会議』3096-3105頁、2019年。 0.71
2 [41] Yulun Zhang, Kunpeng Li, Kai Li, Lichen Wang, Bineng Zhong, and Yun Fu. 2 [41]ユルン・チャン、クンペン・リー、カイ・リー、リチェン・ワン、ビン・ジョン、ユン・フー。 0.48
Image super-resolution using very deep residual channel attention networks. 超深チャネルアテンションネットワークを用いた超高分解能画像 0.65
In ECCV, 2018. 2018年、ECCV。 0.68
1, 2, 5, 6 1, 2, 5, 6 0.43
[42] Yulun Zhang, Yapeng Tian, Yu Kong, Bineng Zhong, and Yun Fu. [42]ユルン・チャン、ヤペン・チアン、ユコン、ビネン・ジン、ユンフー 0.47
Residual dense network for image super-resolution. 画像超解像のための残留密度ネットワーク 0.74
In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018. IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2018で発表された。 0.87
1, 2 [26] Radu Timofte, Eirikur Agustsson, Luc Van Gool, MingHsuan Yang, and Lei Zhang. 1, 2 [26]Radu Timofte、Erikur Agustsson、Luc Van Gool、MingHsuan Yang、Lei Zhang。 0.52
Ntire 2017 challenge on single In Proceedimage super-resolution: Methods and results. 2017年のシングルIn Proceedimageスーパーレゾリューションの挑戦:メソッドと結果。 0.79
ings of the IEEE conference on computer vision and pattern recognition workshops, pages 114–125, 2017. IEEE Conference on Computer Vision and Pattern Recognition Workshops, page 114–125, 2017 に参加。
訳抜け防止モード: IEEE Conference on Computer Vision and Pattern Recognition Workshop に参加して 114-125頁、2017年。
0.87
5 [27] Tong Tong, Gen Li, Xiejie Liu, and Qinquan Gao. 5 27]トントン、ゲン・リ、ジエジー・リウ、ジンクァン・ガオ。 0.43
Image super-resolution using dense skip connections. 濃密なスキップ接続を用いた画像超解像 0.58
In Computer Vision (ICCV), 2017 IEEE International Conference on, pages 4809–4817. In Computer Vision (ICCV) 2017 IEEE International Conference on, page 4809–4817。 0.42
IEEE, 2017. 2017年、IEEE。 0.63
2 [28] Longguang Wang, Yingqian Wang, Xiaoyu Dong, Qingyu Xu, Jungang Yang, Wei An, and Yulan Guo. 2 [28]長広王、yingqian Wang、Xiaoyu Dong、Qingyu Xu、Jungang Yang、Wei An、Yulan Guo。 0.52
Unsupervised degradation representation learning for blind superIn Proceedings of the IEEE/CVF Conference resolution. IEEE/CVF会議におけるブラインドスーパーインプロセッシングのための教師なし劣化表現学習 0.65
on Computer Vision and Pattern Recognition, pages 10581– 10590, 2021. コンピュータビジョンとパターン認識について、ページ10581–10590, 2021。 0.86
1, 2, 3, 4, 5 1, 2, 3, 4, 5 0.43
[29] Xintao Wang, Liangbin Xie, Chao Dong, and Ying Shan. [29]シンタオ・ワン、リョンビン・シー、チャオ・ドン、ヨン・シャン。 0.51
Real-esrgan: Training real-world blind super-resolution with pure synthetic data. real-esrgan: 純粋な合成データで実世界のブラインド超解像をトレーニングする。 0.53
In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 1905–1914, 2021. The Proceedings of the IEEE/CVF International Conference on Computer Vision, page 1905–1914, 2021。 0.45
1, 2, 3, 4, 5, 6, 7, 8 1, 2, 3, 4, 5, 6, 7, 8 0.42
[30] Xintao Wang, Ke Yu, Chao Dong, and Chen Change Loy. 【30】王新太夫、華雄、長東、陳がロイを交代する。 0.58
Recovering realistic texture in image superresolution by deep spatial feature transform. 深部空間特徴変換による画像超解像における現実的なテクスチャの復元 0.62
arXiv preprint arXiv:1804.02815, 2018. arXiv preprint arXiv:1804.02815, 2018 0.40
1, 2 [31] Xintao Wang, Ke Yu, Shixiang Wu, Jinjin Gu, Yihao Liu, Chao Dong, Yu Qiao, and Chen Change Loy. 1, 2 [31]新田王氏、華雄氏、紫王氏、晋神愚氏、Yihao Liu氏、Chao Dong氏、Yu Qiao氏、Chen Change Loy氏。 0.52
Esrgan: Enhanced super-resolution generative adversarial networks. Esrgan: 超高解像度生成対向ネットワーク。 0.74
In The European Conference on Computer Vision (ECCV) Workshops, September 2018. 2018年9月、欧州コンピュータビジョン会議(ECCV)ワークショップに参加。 0.78
2 [32] Pengxu Wei, Hannan Lu, Radu Timofte, Liang Lin, Wangmeng Zuo, Zhihong Pan, Baopu Li, Teng Xi, Yanwen Fan, Gang Zhang, et al Aim 2020 challenge on real image superresolution: methods and results. 2 [32] Pengxu Wei, Hannan Lu, Radu Timofte, Liang Lin, Wangmeng Zuo, Zhihong Pan, Baopu Li, Teng Xi, Yanwen Fan, Gang Zhang, et al Aim 2020 Challenge on real image super resolution: Method and results. 0.42
In European Conference on Computer Vision, pages 392–422. 欧州コンピュータビジョン会議』392-422頁。 0.67
Springer, 2020. スプリンガー、2020年。 0.59
1, 2 [33] Zhang Wenlong, Liu Yihao, Chao Dong, and Yu Qiao. 1, 2 [33] 張文長、 李栄、 チャオ・ドン、 ユ・カイオ。 0.47
Ranksrgan: Generative adversarial networks with ranker for image super-resolution. Ranksrgan: 画像超解像度のランサーを備えた生成的敵ネットワーク。 0.65
IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021。 0.40
2 [34] Liangbin Xie, Xintao Wang, Chao Dong, Zhongang Qi, and Ying Shan. 2 [34]梁ビン・チー、新太王、チャオ・ドン、張清、ying Shan。 0.52
Finding discriminative filters for specific degradations in blind super-resolution. ブラインド超解像における特定の劣化に対する識別フィルタの探索 0.64
arXiv preprint arXiv:2108.01070, 2021. arXiv preprint arXiv:2108.01070, 2021 0.40
3, 4, 6 [35] Yuan Yuan, Siyuan Liu, Jiawei Zhang, Yongbing Zhang, Chao Dong, and Liang Lin. 3, 4, 6 [35]元元、李清安、張章、張慶、長東、梁林。 0.34
Unsupervised image superresolution using cycle-in-cycle generative adversarial networks. サイクルインサイクル生成対向ネットワークを用いた教師なし画像超解像 0.56
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pages 701–710, 2018. IEEE Conference on Computer Vision and Pattern Recognition WorkshopsのProceedings of the Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, page 701–710, 2018。
訳抜け防止モード: IEEE Conference on Computer Vision and Pattern Recognition Workshops に参加して 701-710頁、2018年。
0.83
1, 2 [36] Roman Zeyde, Michael Elad, and Matan Protter. 1, 2 36] ローマ・ゼイデ、ミカエル・エラード、マタン・プロッター 0.41
On single image scale-up using sparse-representatio ns. スパース表現を用いた単一画像のスケールアップ。 0.57
In International conference on curves and surfaces, pages 711–730. 曲線と曲面に関する国際会議、711-730頁。 0.67
Springer, 2010. 2010年、スプリンガー。 0.61
7 [37] Kaibing Zhang, Xinbo Gao, Dacheng Tao, Xuelong Li, et al Single image super-resolution with non-local means and steering kernel regression. 7 [37]カイビングZhang,Xinbo Gao,Dacheng Tao,Xuelong Li, et al Single Image Super- resolution with non-local means and steering kernel regression。
訳抜け防止モード: 7 [37]カイビング・チャン、シンボ・ガオ、ダチェン・タオ、 xuelong li, et al single image super - resolution with non- local means and steering kernel regression を参照。
0.52
Image, 11:12, 2012. 画像、2012年11月12日。 0.58
2 [38] Kai Zhang, Jingyun Liang, Luc Van Gool, and Radu Timofte. 2 [38]kai zhang、jingyun liang、luc van gool、radu timofte。 0.42
Designing a practical degradation model for deep blind 深部視覚障害者の実用的劣化モデルの設計 0.74
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。