論文の概要: SwiftSRGAN -- Rethinking Super-Resolution for Efficient and Real-time
Inference
- arxiv url: http://arxiv.org/abs/2111.14320v1
- Date: Mon, 29 Nov 2021 04:20:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:08:07.420331
- Title: SwiftSRGAN -- Rethinking Super-Resolution for Efficient and Real-time
Inference
- Title(参考訳): SwiftSRGAN - 効率的なリアルタイム推論のための超解法を再考する
- Authors: Koushik Sivarama Krishnan, Karthik Sivarama Krishnan
- Abstract要約: 本稿では,メモリフットプリントの高速化と小型化を実現したアーキテクチャを提案する。
リアルタイムの超解像度により、帯域幅の低い条件下でも高解像度のメディアコンテンツをストリーミングできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there have been several advancements in the task of image
super-resolution using the state of the art Deep Learning-based architectures.
Many super-resolution-based techniques previously published, require high-end
and top-of-the-line Graphics Processing Unit (GPUs) to perform image
super-resolution. With the increasing advancements in Deep Learning approaches,
neural networks have become more and more compute hungry. We took a step back
and, focused on creating a real-time efficient solution. We present an
architecture that is faster and smaller in terms of its memory footprint. The
proposed architecture uses Depth-wise Separable Convolutions to extract
features and, it performs on-par with other super-resolution GANs (Generative
Adversarial Networks) while maintaining real-time inference and a low memory
footprint. A real-time super-resolution enables streaming high resolution media
content even under poor bandwidth conditions. While maintaining an efficient
trade-off between the accuracy and latency, we are able to produce a comparable
performance model which is one-eighth (1/8) the size of super-resolution GANs
and computes 74 times faster than super-resolution GANs.
- Abstract(参考訳): 近年,Deep Learning-based architectures(Deep Learning-based architectures)の状況を用いて,画像超解像化の課題がいくつか進展している。
これまで公開された超解像ベースの技術の多くは、画像超解像を実行するためにハイエンドかつ最上位のグラフィックス処理ユニット(GPU)を必要とする。
ディープラーニングアプローチの進歩に伴い、ニューラルネットワークはますます計算能力に飢えている。
私たちは一歩後退して、リアルタイムの効率的なソリューションを作ることに集中しました。
本稿では,メモリフットプリントの高速化と小型化を実現したアーキテクチャを提案する。
提案アーキテクチャはDepth-wise Separable Convolutionsを用いて特徴を抽出し,リアルタイム推論とメモリフットプリントの低さを維持しながら,他の超高解像度GAN(Generative Adversarial Networks)と同等に動作する。
リアルタイムの超解像度により、帯域幅の低い条件でも高解像度のメディアコンテンツをストリーミングできる。
精度とレイテンシのトレードオフを効果的に維持しながら,超高分解能GANの1/8の1/8で,超高分解能GANの74倍の速度で計算可能な,同等のパフォーマンスモデルを生成することができる。
関連論文リスト
- Hierarchical Patch Diffusion Models for High-Resolution Video Generation [50.42746357450949]
我々は,階層的な方法で,コンテキスト情報を低スケールから高スケールのパッチに伝播する深層文脈融合を開発する。
また,ネットワーク容量の増大と,粗い画像の細部への演算を行う適応計算を提案する。
得られたモデルは、クラス条件のビデオ生成において66.32の最先端FVDスコアと87.68のインセプションスコアを新たに設定する。
論文 参考訳(メタデータ) (2024-06-12T01:12:53Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Rethinking Resolution in the Context of Efficient Video Recognition [49.957690643214576]
クロスレゾリューションKD(ResKD)は、低解像度フレームでの認識精度を高めるための単純だが効果的な方法である。
我々は,最先端アーキテクチャ,すなわち3D-CNNとビデオトランスフォーマーに対して,その効果を広く示す。
論文 参考訳(メタデータ) (2022-09-26T15:50:44Z) - Image Super-resolution with An Enhanced Group Convolutional Neural
Network [102.2483249598621]
学習能力の強いCNNは、超解像問題を解くために広く選択されている。
浅層構造を持つ超解像群CNN(ESRGCNN)を提案する。
ESRGCNNは、SISRの性能、複雑さ、実行速度、画質評価およびSISRの視覚効果の観点から、最先端技術を上回っていると報告されている。
論文 参考訳(メタデータ) (2022-05-29T00:34:25Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Deep Networks for Image and Video Super-Resolution [30.75380029218373]
単一画像超解像(SISR)は、MDCB(Mixed-Dense connection block)と呼ばれる効率的な畳み込みユニットを用いて構築される。
ネットワークの2つのバージョンをトレーニングし、異なる損失構成を用いて相補的な画像品質を向上させる。
ネットワークは複数のフレームから情報を集約し,時間的整合性を維持するために学習する。
論文 参考訳(メタデータ) (2022-01-28T09:15:21Z) - Attaining Real-Time Super-Resolution for Microscopic Images Using GAN [0.06345523830122167]
本稿では,標準的なGPUを用いた超解像顕微鏡をリアルタイムに実行するための,既存のディープラーニングに基づく手法の改善に焦点をあてる。
生成器のアーキテクチャとSRGANの判別器の単純な変更を提案する。
我々は、我々のモデルが生成した出力の品質と実行時間を比較し、ローエンドのベンチトップやモバイルの顕微鏡のような様々な領域にそのアプリケーションを開放する。
論文 参考訳(メタデータ) (2020-10-09T15:26:21Z) - OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling
Network [3.6683231417848283]
SISRを任意のスケールで1つのモデルで解くための,深層でも軽量な畳み込みネットワークであるOverNetを紹介した。
我々のネットワークは、従来の手法よりも少ないパラメータを使用しながら、標準ベンチマークにおいて、過去の最先端結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-05T22:10:29Z) - Real-time Semantic Segmentation with Fast Attention [94.88466483540692]
本稿では,高解像度画像と映像をリアルタイムにセマンティックセグメンテーションするための新しいアーキテクチャを提案する。
提案したアーキテクチャは我々の空間的注意の速さに依存しており、これは一般的な自己注意機構の単純かつ効率的な修正である。
複数のデータセットに対する結果から,既存の手法に比べて精度と速度が向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-07T22:37:16Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。