論文の概要: Collapsible Linear Blocks for Super-Efficient Super Resolution
- arxiv url: http://arxiv.org/abs/2103.09404v1
- Date: Wed, 17 Mar 2021 02:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 13:01:58.586698
- Title: Collapsible Linear Blocks for Super-Efficient Super Resolution
- Title(参考訳): 超高効率超解像のための可衝突線形ブロック
- Authors: Kartikeya Bhardwaj, Milos Milosavljevic, Alex Chalfin, Naveen Suda,
Liam O'Neil, Dibakar Gope, Lingchuan Meng, Ramon Matas, Danny Loh
- Abstract要約: シングルイメージスーパーリゾリューション(SISR)は、コンピュータビジョンの重要な問題となっています。
超高効率超解像ネットワークの新たなクラスであるSESRを提案する。
6つのベンチマークデータセットの詳細な実験は、SESRが同様のあるいはより良い画像品質を達成することを実証している。
- 参考スコア(独自算出の注目度): 3.5554418329811557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advent of smart devices that support 4K and 8K resolution, Single
Image Super Resolution (SISR) has become an important computer vision problem.
However, most super resolution deep networks are computationally very
expensive. In this paper, we propose SESR, a new class of Super-Efficient Super
Resolution networks that significantly improve image quality and reduce
computational complexity. Detailed experiments across six benchmark datasets
demonstrate that SESR achieves similar or better image quality than
state-of-the-art models while requiring 2x to 330x fewer Multiply-Accumulate
(MAC) operations. As a result, SESR can be used on constrained hardware to
perform x2 (1080p to 4K) and x4 SISR (1080p to 8K). Towards this, we simulate
hardware performance numbers for a commercial mobile Neural Processing Unit
(NPU) for 1080p to 4K (x2) and 1080p to 8K (x4) SISR. Our results highlight the
challenges faced by super resolution on AI accelerators and demonstrate that
SESR is significantly faster than existing models. Overall, SESR establishes a
new Pareto frontier on the quality (PSNR)-computation relationship for the
super resolution task.
- Abstract(参考訳): 4Kと8Kの解像度をサポートするスマートデバイスが登場し、Single Image Super Resolution (SISR)は重要なコンピュータビジョン問題となっている。
しかし、ほとんどの超解像度ディープネットワークは計算的に非常に高価である。
本稿では,画像品質を著しく向上し,計算複雑性を低減した超高効率超解像ネットワークであるsesrを提案する。
6つのベンチマークデータセットの詳細な実験によると、SESRは最新技術モデルと同等またはより良い画質を実現し、2倍から330倍のMultiply-Accumulate (MAC)操作を必要とする。
その結果、SESRは制約のあるハードウェアでx2(1080pから4K)とx4SISR(1080pから8K)を実行することができる。
そこで我々は,1080pから4K (x2) と1080pから8K (x4) SISRの商用モバイルニューラル処理ユニット(NPU)のハードウェア性能をシミュレーションした。
我々の結果は、AIアクセラレーターにおける超解像度が直面する課題を強調し、SESRが既存のモデルよりもはるかに高速であることを示す。
全体として、SESRは、超分解能タスクに対する品質(PSNR)計算関係に関する新しいパレートフロンティアを確立する。
関連論文リスト
- InternLM-XComposer2-4KHD: A Pioneering Large Vision-Language Model Handling Resolutions from 336 Pixels to 4K HD [129.9919468062788]
InternLM-XComposer2-4KHDは、4K HD (3840 x 1600)以上のLVLMの解像度を向上するための画期的な研究である。
本研究は、自動パッチ設定による動的解像度という、新しい拡張を導入することにより、パッチ分割パラダイムを進化させる。
我々の研究は、トレーニングの解像度を4K HDまで拡張することで、潜在的な改善の天井にぶつかることなく、一貫したパフォーマンス向上につながることを実証している。
論文 参考訳(メタデータ) (2024-04-09T17:59:32Z) - HIRI-ViT: Scaling Vision Transformer with High Resolution Inputs [102.4965532024391]
Vision Transformer(ViT)とConvolution Neural Network(CNN)のハイブリッドディープモデルは、ビジョンタスクのための強力なバックボーンのクラスとして登場した。
高分解能入力に適した4段のViTから5段のViTにアップグレードしたHIgh-Resolution Inputs(HIRI-ViT)のハイブリッドバックボーンを提案する。
HiRI-ViTは448$times$448の入力でImageNetで84.3%の最高のTop-1精度を達成し、iFormer-Sの83.4%を224$timesで0.9%改善した。
論文 参考訳(メタデータ) (2024-03-18T17:34:29Z) - PTSR: Patch Translator for Image Super-Resolution [16.243363392717434]
画像超解像(PTSR)のためのパッチトランスレータを提案し,この問題に対処する。
提案するPTSRは、畳み込み動作のないトランスフォーマーベースGANネットワークである。
マルチヘッドアテンションを利用した改良パッチを再生するための新しいパッチトランスレータモジュールを提案する。
論文 参考訳(メタデータ) (2023-10-20T01:45:00Z) - FuseSR: Super Resolution for Real-time Rendering through Efficient
Multi-resolution Fusion [38.67110413800048]
最も一般的な解決策の1つは、レンダリングオーバーヘッドを減らすために、低解像度で画像をレンダリングすることである。
本稿では,高品質なアップサンプル再構成を予測できる効率的かつ効率的な超解像法を提案する。
実験の結果,提案手法は時間的に一貫した再構築を4倍の4倍の4倍の4倍の4倍の4倍の8倍の8倍のアップサンプリングをリアルタイムに行うことができることがわかった。
論文 参考訳(メタデータ) (2023-10-15T04:01:05Z) - AsConvSR: Fast and Lightweight Super-Resolution Network with Assembled
Convolutions [32.85522513271578]
リアルタイム性能を実現するために,高速かつ軽量な超解像ネットワークを提案する。
超解像における分割・畳み込みの応用を解析することにより、入力特徴に応じて畳み込みカーネルを適応できる組込み畳み込みを提案する。
NTIRE 2023 Real-Time Super-Resolution - Track 1で優勝した。
論文 参考訳(メタデータ) (2023-05-05T09:33:34Z) - Efficient and Accurate Quantized Image Super-Resolution on Mobile NPUs,
Mobile AI & AIM 2022 challenge: Report [144.41960648643564]
本稿では,高効率な量子化画像超解法を設計するための参加者を提案する。
このソリューションはモバイルNPU上でリアルタイムのパフォーマンスを示すことができる。
全てのモデルのランタイムは、専用のエッジNPUを備えたSynaptics VS680 Smart Homeボードで評価された。
論文 参考訳(メタデータ) (2022-11-07T22:27:58Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Super-Efficient Super Resolution for Fast Adversarial Defense at the
Edge [4.2698418800007865]
画像分類のDeep Neural Networks (DNN) に対する攻撃を緩和する新しい手法が登場した。
超解像は計算コストが高い。
超高効率超解像(SESR)は,2倍から330倍のMultiply-Accumulate(MAC)演算を必要としながら,先行技術と類似あるいは良好な画像品質を実現する。
論文 参考訳(メタデータ) (2021-12-29T00:35:41Z) - Generating Superpixels for High-resolution Images with Decoupled Patch
Calibration [82.21559299694555]
Patch Networks (PCNet) は高解像度のスーパーピクセルセグメンテーションを効率的かつ正確に実装するように設計されている。
DPCは高解像度画像から局所パッチを取得し、動的にバイナリマスクを生成し、ネットワークを領域境界に集中させる。
特に、DPCは高解像度画像からローカルパッチを取り、動的にバイナリマスクを生成して、ネットワークを領域境界に集中させる。
論文 参考訳(メタデータ) (2021-08-19T10:33:05Z) - Extremely Lightweight Quantization Robust Real-Time Single-Image Super
Resolution for Mobile Devices [0.0]
シングルイメージ・スーパーレゾリューション(SISR)は古典的なコンピュータビジョンの問題であり、数十年にわたって研究されてきた。
SISRに関する最近の研究は、ディープラーニングの方法論に焦点を合わせ、最先端の結果を得る。
ハードウェア(Synaptics Dolphin NPU)を意識した超軽量量子化ロバストリアルタイム超解像ネットワーク(XLSR)を提案する。
論文 参考訳(メタデータ) (2021-05-21T11:29:48Z) - AIM 2020 Challenge on Video Extreme Super-Resolution: Methods and
Results [96.74919503142014]
本稿では,ECCV 2020におけるAIM 2020ワークショップに関連する超高解像度映像についてレビューする。
トラック1は、PSNRとSSIMによって基底真理への忠実度を測定するような要求されたタスクの最先端度を測定するために設定される。
トラック2は、人間の知覚に応じてランク付けされた視覚的に満足な結果を生成することを目的としており、ユーザスタディによって評価されている。
論文 参考訳(メタデータ) (2020-09-14T09:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。