論文の概要: RankSRGAN: Super Resolution Generative Adversarial Networks with
Learning to Rank
- arxiv url: http://arxiv.org/abs/2107.09427v1
- Date: Tue, 20 Jul 2021 11:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 19:38:32.595141
- Title: RankSRGAN: Super Resolution Generative Adversarial Networks with
Learning to Rank
- Title(参考訳): RankSRGAN: ランクを学習する超高分解能生成敵ネットワーク
- Authors: Wenlong Zhang, Yihao Liu, Chao Dong, Yu Qiao
- Abstract要約: 本稿では,RankSRGAN (RankSRGAN) を用いた超解像生成適応ネットワークを提案する。
具体的には、まず、知覚的メトリクスの振る舞いを学習できるランサーを訓練し、次に、知覚的品質を最適化するための新しいランクコンテンツ損失を導入する。
広汎な実験により、RangSRGANは視覚的に満足な結果を達成し、知覚的指標と品質で最先端のパフォーマンスに達することが示されている。
- 参考スコア(独自算出の注目度): 44.496789706423804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GAN) have demonstrated the potential to
recover realistic details for single image super-resolution (SISR). To further
improve the visual quality of super-resolved results, PIRM2018-SR Challenge
employed perceptual metrics to assess the perceptual quality, such as PI, NIQE,
and Ma. However, existing methods cannot directly optimize these
indifferentiable perceptual metrics, which are shown to be highly correlated
with human ratings. To address the problem, we propose Super-Resolution
Generative Adversarial Networks with Ranker (RankSRGAN) to optimize generator
in the direction of different perceptual metrics. Specifically, we first train
a Ranker which can learn the behaviour of perceptual metrics and then introduce
a novel rank-content loss to optimize the perceptual quality. The most
appealing part is that the proposed method can combine the strengths of
different SR methods to generate better results. Furthermore, we extend our
method to multiple Rankers to provide multi-dimension constraints for the
generator. Extensive experiments show that RankSRGAN achieves visually pleasing
results and reaches state-of-the-art performance in perceptual metrics and
quality. Project page: https://wenlongzhang0517.github.io/Projects/RankSRGAN
- Abstract(参考訳): Generative Adversarial Networks (GAN)は、単一の画像超解像(SISR)の現実的な詳細を復元する可能性を実証している。
超解答結果の視覚的品質をさらに向上させるために、PIRM2018-SR Challengeでは、PI、NIQE、Maなどの知覚的品質を評価するために、知覚的指標を使用した。
しかし、既存の手法では、人間の評価と高い相関関係があることが示されるこれらの知覚的指標を直接最適化することはできない。
この問題に対処するために,RankSRGAN(RankSRGAN)を用いた超解法生成適応ネットワークを提案する。
具体的には、まず知覚指標の振る舞いを学習できるランチャーを訓練し、次に新しいランクコンテンツ損失を導入し、知覚品質を最適化する。
最も魅力的な点は、提案手法が異なるSR法の強度を組み合わせることでより良い結果が得られることである。
さらに,本手法を複数のランカに拡張して,ジェネレータの多次元制約を実現する。
広汎な実験により、RangSRGANは視覚的に満足な結果を達成し、知覚的指標と品質で最先端のパフォーマンスに達することが示されている。
プロジェクトページ:https://wenlongzhang0517.github.io/Projects/RankSRGAN
関連論文リスト
- Fortifying Fully Convolutional Generative Adversarial Networks for Image Super-Resolution Using Divergence Measures [17.517010701323823]
超解像(英: Super-Resolution, SR)は、時間制限された画像処理問題である。
本稿では,SRのためのGANベースのアーキテクチャを提案する。
本稿では,GAN発生器の深度を増大させることで得られる差分畳み込み特性を,学習可能な凸重みの集合で最適に組み合わせることができることを示す。
論文 参考訳(メタデータ) (2024-04-09T13:19:43Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - Ranking-based Adaptive Query Generation for DETRs in Crowded Pedestrian
Detection [49.27380156754935]
DETRのクエリの数は手動で調整しなければなりませんが、そうでなければ、パフォーマンスは様々な程度に低下します。
本稿では,ランクに基づく適応クエリ生成(RAQG)を提案し,問題を緩和する。
提案手法は単純かつ効果的であり,任意のDETRにプラグインすることで,理論上クエリ適応性を実現する。
論文 参考訳(メタデータ) (2023-10-24T11:00:56Z) - The Best of Both Worlds: a Framework for Combining Degradation
Prediction with High Performance Super-Resolution Networks [14.804000317612305]
本稿では,ブラインドSR予測機構とディープSRネットワークを組み合わせるためのフレームワークを提案する。
我々は、我々のハイブリッドモデルが、非盲目モデルと盲目モデルの両方よりも強いSR性能を一貫して達成していることを示す。
論文 参考訳(メタデータ) (2022-11-09T16:49:35Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Fourier Space Losses for Efficient Perceptual Image Super-Resolution [131.50099891772598]
提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。
フーリエ空間における周波数に対する損失の直接的強調は知覚的画質を著しく向上させることを示す。
訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。
論文 参考訳(メタデータ) (2021-06-01T20:34:52Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Unsupervised Alternating Optimization for Blind Hyperspectral Imagery
Super-resolution [40.350308926790255]
本稿では, 盲点HSI融合問題に対処するために, 盲点HSI SR法を提案する。
本稿ではまず,デジェネレーションモデルを推定し,遅延画像の再構成を行うために,逐次最適化に基づく深層フレームワークを提案する。
そして,ネットワークを事前学習するメタラーニングに基づく機構が提案され,ネットワークの速度と一般化能力を効果的に向上させることができる。
論文 参考訳(メタデータ) (2020-12-03T07:52:32Z) - Journey Towards Tiny Perceptual Super-Resolution [23.30464519074935]
本研究では,NASとGANを統合したニューラルアーキテクチャサーチ(NAS)手法を提案する。
我々の小さな知覚的SR(TPSR)モデルは、全参照知覚量(LPIPS)と歪み量(PSNR)の両方でSRGANとEnhanceNetを上回ります。
論文 参考訳(メタデータ) (2020-07-08T18:24:40Z) - Feature-Driven Super-Resolution for Object Detection [13.748941620767452]
本稿では,低解像度(LR)画像の検出性能を向上させるために,シンプルだが強力な機能駆動型超解像(FDSR)を提案する。
FDSRは、MS COCOバリデーション、VOC2007データベースにおける検出性能mAPより優れ、他の検出ネットワークによく一般化されている。
論文 参考訳(メタデータ) (2020-04-01T16:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。