論文の概要: StarSRGAN: Improving Real-World Blind Super-Resolution
- arxiv url: http://arxiv.org/abs/2307.16169v1
- Date: Sun, 30 Jul 2023 08:34:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:15:17.092697
- Title: StarSRGAN: Improving Real-World Blind Super-Resolution
- Title(参考訳): StarSRGAN: リアル・ワールド・ブラインド・スーパーリゾリューションの改善
- Authors: Khoa D. Vo, Len T. Bui
- Abstract要約: コンピュータビジョンにおける視覚超解像(SR)の目的は、画像の低解像度化の原因となる劣化過程を事前に知ることなく、画像の解像度を改善することである。
State of the Art (SOTA)モデルであるReal-ESRGANは知覚障害を進行させ、視覚的に説得力のある結果をもたらす。
本稿では,視覚超解像タスク用に設計された新しいGANモデルであるStarSRGANを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of blind super-resolution (SR) in computer vision is to improve the
resolution of an image without prior knowledge of the degradation process that
caused the image to be low-resolution. The State of the Art (SOTA) model
Real-ESRGAN has advanced perceptual loss and produced visually compelling
outcomes using more complex degradation models to simulate real-world
degradations. However, there is still room to improve the super-resolved
quality of Real-ESRGAN by implementing recent techniques. This research paper
introduces StarSRGAN, a novel GAN model designed for blind super-resolution
tasks that utilize 5 various architectures. Our model provides new SOTA
performance with roughly 10% better on the MANIQA and AHIQ measures, as
demonstrated by experimental comparisons with Real-ESRGAN. In addition, as a
compact version, StarSRGAN Lite provides approximately 7.5 times faster
reconstruction speed (real-time upsampling from 540p to 4K) but can still keep
nearly 90% of image quality, thereby facilitating the development of a
real-time SR experience for future research. Our codes are released at
https://github.com/kynthesis/StarSRGAN.
- Abstract(参考訳): コンピュータビジョンにおける視覚超解像(SR)の目的は、画像の低解像度化の原因となる劣化過程を事前に知ることなく、画像の解像度を改善することである。
State of the Art (SOTA)モデルであるReal-ESRGANは、より複雑な劣化モデルを用いて現実の劣化をシミュレートし、視覚的に魅力的な結果をもたらす。
しかし、近年の手法により、Real-ESRGANの超解像品質を改善する余地は残されている。
本研究は,5つのアーキテクチャを用いた視覚超解像タスクのための新しいGANモデルであるStarSRGANを紹介する。
提案モデルでは, MANIQA と AHIQ の精度を約10%向上した SOTA 性能を Real-ESRGAN と実験的に比較した。
さらに、小型版として、StarSRGAN Liteは、約7.5倍高速な再構築速度(540pから4Kへのリアルタイムアップサンプリング)を提供するが、画像品質の90%近くを維持し、将来の研究のためのリアルタイムSR体験の開発を容易にする。
私たちのコードはhttps://github.com/kynthesis/starsrganでリリースしています。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Towards Realistic Data Generation for Real-World Super-Resolution [58.88039242455039]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Fine-tuned Generative Adversarial Network-based Model for Medical Image Super-Resolution [2.647302105102753]
The Real-Enhanced Super-Resolution Generative Adversarial Network (Real-ESRGAN) is a practical model for recovery HR images from real-world LR images。
実世界の画像劣化をシミュレートするReal-ESRGANの高次劣化モデルを用いる。
提案モデルでは,Real-ESRGANモデルに比べて知覚品質が優れ,細部を効果的に保存し,より現実的なテクスチャで画像を生成する。
論文 参考訳(メタデータ) (2022-11-01T16:48:04Z) - Generative Adversarial Super-Resolution at the Edge with Knowledge
Distillation [1.3764085113103222]
シングルイメージのスーパーソリューションは、信頼できるビジュアルストリームが必要な環境でのロボットタスクをサポートすることができる。
我々は,EdgeSRGANと呼ばれるリアルタイム超解法のための効率的な生成逆ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:58:41Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - Image Super-resolution with An Enhanced Group Convolutional Neural
Network [102.2483249598621]
学習能力の強いCNNは、超解像問題を解くために広く選択されている。
浅層構造を持つ超解像群CNN(ESRGCNN)を提案する。
ESRGCNNは、SISRの性能、複雑さ、実行速度、画質評価およびSISRの視覚効果の観点から、最先端技術を上回っていると報告されている。
論文 参考訳(メタデータ) (2022-05-29T00:34:25Z) - Real-ESRGAN: Training Real-World Blind Super-Resolution with Pure
Synthetic Data [17.529045507657944]
我々は、強力なESRGANを実用的修復アプリケーション(Real-ESRGAN)に拡張する。
複雑な実世界の劣化をシミュレートするために、高次劣化モデリングプロセスを導入する。
また、合成プロセスにおける共通リングやオーバーシュートアーティファクトについても検討する。
論文 参考訳(メタデータ) (2021-07-22T17:43:24Z) - Extremely Lightweight Quantization Robust Real-Time Single-Image Super
Resolution for Mobile Devices [0.0]
シングルイメージ・スーパーレゾリューション(SISR)は古典的なコンピュータビジョンの問題であり、数十年にわたって研究されてきた。
SISRに関する最近の研究は、ディープラーニングの方法論に焦点を合わせ、最先端の結果を得る。
ハードウェア(Synaptics Dolphin NPU)を意識した超軽量量子化ロバストリアルタイム超解像ネットワーク(XLSR)を提案する。
論文 参考訳(メタデータ) (2021-05-21T11:29:48Z) - ESRGAN+ : Further Improving Enhanced Super-Resolution Generative
Adversarial Network [2.4366811507669124]
ESRGAN (Enhanced Super-Resolution Generative Adversarial Network) は、単一画像の超解像に対する知覚駆動型アプローチである。
発電機ネットワークにノイズインプットを導入し,変動を生かした。
結果として得られるイメージは、より現実的なテクスチャを示します。
論文 参考訳(メタデータ) (2020-01-21T14:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。