論文の概要: StarSRGAN: Improving Real-World Blind Super-Resolution
- arxiv url: http://arxiv.org/abs/2307.16169v1
- Date: Sun, 30 Jul 2023 08:34:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:15:17.092697
- Title: StarSRGAN: Improving Real-World Blind Super-Resolution
- Title(参考訳): StarSRGAN: リアル・ワールド・ブラインド・スーパーリゾリューションの改善
- Authors: Khoa D. Vo, Len T. Bui
- Abstract要約: コンピュータビジョンにおける視覚超解像(SR)の目的は、画像の低解像度化の原因となる劣化過程を事前に知ることなく、画像の解像度を改善することである。
State of the Art (SOTA)モデルであるReal-ESRGANは知覚障害を進行させ、視覚的に説得力のある結果をもたらす。
本稿では,視覚超解像タスク用に設計された新しいGANモデルであるStarSRGANを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of blind super-resolution (SR) in computer vision is to improve the
resolution of an image without prior knowledge of the degradation process that
caused the image to be low-resolution. The State of the Art (SOTA) model
Real-ESRGAN has advanced perceptual loss and produced visually compelling
outcomes using more complex degradation models to simulate real-world
degradations. However, there is still room to improve the super-resolved
quality of Real-ESRGAN by implementing recent techniques. This research paper
introduces StarSRGAN, a novel GAN model designed for blind super-resolution
tasks that utilize 5 various architectures. Our model provides new SOTA
performance with roughly 10% better on the MANIQA and AHIQ measures, as
demonstrated by experimental comparisons with Real-ESRGAN. In addition, as a
compact version, StarSRGAN Lite provides approximately 7.5 times faster
reconstruction speed (real-time upsampling from 540p to 4K) but can still keep
nearly 90% of image quality, thereby facilitating the development of a
real-time SR experience for future research. Our codes are released at
https://github.com/kynthesis/StarSRGAN.
- Abstract(参考訳): コンピュータビジョンにおける視覚超解像(SR)の目的は、画像の低解像度化の原因となる劣化過程を事前に知ることなく、画像の解像度を改善することである。
State of the Art (SOTA)モデルであるReal-ESRGANは、より複雑な劣化モデルを用いて現実の劣化をシミュレートし、視覚的に魅力的な結果をもたらす。
しかし、近年の手法により、Real-ESRGANの超解像品質を改善する余地は残されている。
本研究は,5つのアーキテクチャを用いた視覚超解像タスクのための新しいGANモデルであるStarSRGANを紹介する。
提案モデルでは, MANIQA と AHIQ の精度を約10%向上した SOTA 性能を Real-ESRGAN と実験的に比較した。
さらに、小型版として、StarSRGAN Liteは、約7.5倍高速な再構築速度(540pから4Kへのリアルタイムアップサンプリング)を提供するが、画像品質の90%近くを維持し、将来の研究のためのリアルタイムSR体験の開発を容易にする。
私たちのコードはhttps://github.com/kynthesis/starsrganでリリースしています。
関連論文リスト
- CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Generative Adversarial Super-Resolution at the Edge with Knowledge
Distillation [1.3764085113103222]
シングルイメージのスーパーソリューションは、信頼できるビジュアルストリームが必要な環境でのロボットタスクをサポートすることができる。
我々は,EdgeSRGANと呼ばれるリアルタイム超解法のための効率的な生成逆ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:58:41Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Image Super-resolution with An Enhanced Group Convolutional Neural
Network [102.2483249598621]
学習能力の強いCNNは、超解像問題を解くために広く選択されている。
浅層構造を持つ超解像群CNN(ESRGCNN)を提案する。
ESRGCNNは、SISRの性能、複雑さ、実行速度、画質評価およびSISRの視覚効果の観点から、最先端技術を上回っていると報告されている。
論文 参考訳(メタデータ) (2022-05-29T00:34:25Z) - Real-ESRGAN: Training Real-World Blind Super-Resolution with Pure
Synthetic Data [17.529045507657944]
我々は、強力なESRGANを実用的修復アプリケーション(Real-ESRGAN)に拡張する。
複雑な実世界の劣化をシミュレートするために、高次劣化モデリングプロセスを導入する。
また、合成プロセスにおける共通リングやオーバーシュートアーティファクトについても検討する。
論文 参考訳(メタデータ) (2021-07-22T17:43:24Z) - Extremely Lightweight Quantization Robust Real-Time Single-Image Super
Resolution for Mobile Devices [0.0]
シングルイメージ・スーパーレゾリューション(SISR)は古典的なコンピュータビジョンの問題であり、数十年にわたって研究されてきた。
SISRに関する最近の研究は、ディープラーニングの方法論に焦点を合わせ、最先端の結果を得る。
ハードウェア(Synaptics Dolphin NPU)を意識した超軽量量子化ロバストリアルタイム超解像ネットワーク(XLSR)を提案する。
論文 参考訳(メタデータ) (2021-05-21T11:29:48Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Joint Generative Learning and Super-Resolution For Real-World
Camera-Screen Degradation [6.14297871633911]
現実世界の単一画像超解像(SISR)タスクでは、低解像度画像はより複雑な劣化に苦しむ。
本稿では,カメラ画面の劣化に着目し,実世界のデータセット(Cam-ScreenSR)を構築する。
まず、ダウンサンプリング劣化GAN(DD-GAN)をトレーニングし、その分解をモデル化し、より多様なLR画像を生成する。
そして、二重残差チャネルアテンションネットワーク(DuRCAN)がSR画像の復元を学習する。
論文 参考訳(メタデータ) (2020-08-01T07:10:13Z) - ESRGAN+ : Further Improving Enhanced Super-Resolution Generative
Adversarial Network [2.4366811507669124]
ESRGAN (Enhanced Super-Resolution Generative Adversarial Network) は、単一画像の超解像に対する知覚駆動型アプローチである。
発電機ネットワークにノイズインプットを導入し,変動を生かした。
結果として得られるイメージは、より現実的なテクスチャを示します。
論文 参考訳(メタデータ) (2020-01-21T14:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。