論文の概要: Bicubic++: Slim, Slimmer, Slimmest -- Designing an Industry-Grade
Super-Resolution Network
- arxiv url: http://arxiv.org/abs/2305.02126v1
- Date: Wed, 3 May 2023 13:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 14:46:38.589401
- Title: Bicubic++: Slim, Slimmer, Slimmest -- Designing an Industry-Grade
Super-Resolution Network
- Title(参考訳): Bicubic++: Slim, Slimmer, Slimmest -- 産業用超解ネットワークの設計
- Authors: Bahri Batuhan Bilecen, Mustafa Ayazoglu
- Abstract要約: 本稿では,Bicubic++ というリアルタイムかつ軽量な単一画像超解像(SR)ネットワークを提案する。
Bicubic++は、計算回数を減らすために、画像の高速で可逆的なダウングレードと低解像度の特徴を学習する。
標準のBicubic Upsamplingメソッドとほぼ同じ速さで、Bicubic++は新しい業界標準を設定できると考えています。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a real-time and lightweight single-image super-resolution (SR)
network named Bicubic++. Despite using spatial dimensions of the input image
across the whole network, Bicubic++ first learns quick reversible downgraded
and lower resolution features of the image in order to decrease the number of
computations. We also construct a training pipeline, where we apply an
end-to-end global structured pruning of convolutional layers without using
metrics like magnitude and gradient norms, and focus on optimizing the pruned
network's PSNR on the validation set. Furthermore, we have experimentally shown
that the bias terms take considerable amount of the runtime while increasing
PSNR marginally, hence we have also applied bias removal to the convolutional
layers. Our method adds ~1dB on Bicubic upscaling PSNR for all tested SR
datasets and runs with ~1.17ms on RTX3090 and ~2.9ms on RTX3070, for 720p
inputs and 4K outputs, both in FP16 precision. Bicubic++ won NTIRE 2023 RTSR
Track 2 x3 SR competition and is the fastest among all competitive methods.
Being almost as fast as the standard Bicubic upsampling method, we believe that
Bicubic++ can set a new industry standard.
- Abstract(参考訳): 本稿では,Bicubic++というリアルタイムかつ軽量な単一画像超解像(SR)ネットワークを提案する。
入力画像の空間次元をネットワーク全体にわたって用いながら、Bicubic++はまず、計算回数を減らすために、画像の高速で可逆的なダウングレードと低解像度の特徴を学習する。
また,大規模化や勾配ノルムなどの指標を使わずに,畳み込み層を終端から終端までのグローバルな構造化プルーニングを適用し,評価セット上でのプルーンドネットワークのPSNRの最適化に重点を置いている。
さらに,PSNRを極端に増加させながら,バイアス項がランタイムのかなりの量を占めることを示したので,畳み込み層にもバイアス除去を適用した。
提案手法では,試験されたすべてのSRデータセットに対して,ビックビックアップスケーリングPSNRで1dB,RTX3090で1.17ms,RTX3070で2.9ms,FP16精度で720p入力と4K出力をそれぞれ追加する。
Bicubic++ は NTIRE 2023 RTSR Track 2 x3 SR コンペティションで優勝し、全ての競争手法の中で最速となった。
標準のBicubic Upsamplingメソッドとほぼ同じ速さで、Bicubic++は新しい業界標準を設定できると考えています。
関連論文リスト
- Rapid-INR: Storage Efficient CPU-free DNN Training Using Implicit Neural Representation [7.539498729072623]
Implicit Neural Representation (INR) は、複雑な形状や物体を、その形状や表面構造を明確に定義せずに表現するための革新的なアプローチである。
従来の研究では、画像圧縮のINRとしてニューラルネットワークを使用することの有効性が実証されており、JPEGのような従来の手法に匹敵する性能を示している。
本稿では、画像のエンコーディングと圧縮にINRを利用する新しいアプローチであるRapid-INRを紹介し、コンピュータビジョンタスクにおけるニューラルネットワークトレーニングを高速化する。
論文 参考訳(メタデータ) (2023-06-29T05:49:07Z) - Binarized Spectral Compressive Imaging [59.18636040850608]
ハイパースペクトル画像(HSI)再構成のための既存のディープラーニングモデルは、優れた性能を実現するが、膨大なメモリと計算資源を持つ強力なハードウェアを必要とする。
本稿では,BiSRNet(Biarized Spectral-Redistribution Network)を提案する。
BiSRNetは,提案手法を用いてベースモデルのバイナライズを行う。
論文 参考訳(メタデータ) (2023-05-17T15:36:08Z) - Optimizing data-flow in Binary Neural Networks [0.0]
本稿では,BNNパイプラインにおけるデータフローと並列性を向上させる新しいトレーニング手法を提案する。
また,ARM命令セットに対するバイナリ直接畳み込みを最適化した実装を提案する。
実験の結果,少なくとも1つの完全精度モデルに対して精度を低下させることなく,推論速度を一貫した改善(最先端の2つのBNNフレームワークと比較して最大1.91と2.73倍)した。
論文 参考訳(メタデータ) (2023-04-03T13:16:33Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - L2PF -- Learning to Prune Faster [57.32153461504626]
本稿では,cnnの冗長フィルタを離散的に学習するマルチタスクのtry-and-learn法と,レイヤの微調整期間の連続的動作を提案する。
ResNet20では、最小精度で圧縮比3.84xを達成しました。
最先端プルーニング法と比較して,GPU時間を1.71倍に短縮した。
論文 参考訳(メタデータ) (2021-01-07T18:13:37Z) - On-Device Text Image Super Resolution [0.0]
我々は、よりシャープな文字エッジを再構築し、OCRの信頼性を高める新しいディープニューラルネットワークを提案する。
提案アーキテクチャは, バイコビックアップサンプリングによるPSNRの大幅な改善を実現するだけでなく, 平均推定時間1枚当たり11.7msで動作する。
ICDAR 2015 TextSRデータセットでは、OCRの精度が75.89%に達しています。
論文 参考訳(メタデータ) (2020-11-20T07:49:48Z) - UCP: Uniform Channel Pruning for Deep Convolutional Neural Networks
Compression and Acceleration [24.42067007684169]
深部CNNを創出するための一様チャネルプルーニング(UCP)手法を提案する。
それらに関連する畳み込みカーネルを含む重要でないチャネルは直接プルーニングされる。
CIFAR-10, CIFAR-100, ILSVRC-2012 を用いて画像分類を行った。
論文 参考訳(メタデータ) (2020-10-03T01:51:06Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - Robust Single-Image Super-Resolution via CNNs and TV-TV Minimization [7.538482310185135]
シングルイメージ超解像(英: Single-image Super- resolution)とは、低解像度(LR)画像から高解像度(HR)画像を得る画像の解像度を増大させる過程である。
大規模なトレーニングデータセットを活用することで、現在のCNN(Convolutional Neural Network)は、このタスクにおける最先端のパフォーマンスを実現している。
我々は,CNNの出力をTV-TV最小化と呼ぶ最適化問題で処理後処理し,一貫性を実現することを提案する。
論文 参考訳(メタデータ) (2020-04-02T07:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。