論文の概要: Enhancing sensor resolution improves CNN accuracy given the same number
of parameters or FLOPS
- arxiv url: http://arxiv.org/abs/2103.05251v1
- Date: Tue, 9 Mar 2021 06:47:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 02:39:32.395871
- Title: Enhancing sensor resolution improves CNN accuracy given the same number
of parameters or FLOPS
- Title(参考訳): センサの解像度向上により、同じパラメータ数またはFLOPSのCNN精度が向上する
- Authors: Ali Borji
- Abstract要約: パラメータ数やFLOPSが同じで、高い入力解像度で高い精度が得られるように、ネットワークを変更することは、ほぼ常に可能であることを示す。
MNIST、Fashion MNIST、CIFAR10データセットに関する予備的研究は、提案手法の効率性を実証している。
- 参考スコア(独自算出の注目度): 53.10151901863263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High image resolution is critical to obtain a good performance in many
computer vision applications. Computational complexity of CNNs, however, grows
significantly with the increase in input image size. Here, we show that it is
almost always possible to modify a network such that it achieves higher
accuracy at a higher input resolution while having the same number of
parameters or/and FLOPS. The idea is similar to the EfficientNet paper but
instead of optimizing network width, depth and resolution simultaneously, here
we focus only on input resolution. This makes the search space much smaller
which is more suitable for low computational budget regimes. More importantly,
by controlling for the number of model parameters (and hence model capacity),
we show that the additional benefit in accuracy is indeed due to the higher
input resolution. Preliminary empirical investigation over MNIST, Fashion
MNIST, and CIFAR10 datasets demonstrates the efficiency of the proposed
approach.
- Abstract(参考訳): 多くのコンピュータビジョンアプリケーションで優れたパフォーマンスを得るためには、高画質が不可欠です。
しかし、cnnの計算複雑性は入力画像サイズの増加とともに著しく増大する。
本稿では,同じパラメータ数やフラップ数を持ちながら,高い入力解像度で高い精度を実現するように,ネットワークを変更することはほぼ常に可能であることを示す。
efficientnetの論文と似ているが、ネットワーク幅、奥行き、解像度を同時に最適化する代わりに、ここでは入力解像度だけに焦点を当てる。
これにより探索空間はより小さくなり、低い計算予算体系に適している。
さらに重要なのは、モデルパラメータの数(およびモデル容量)を制御することによって、精度のさらなる利点は、より高い入力解像度によるものであることを示しています。
MNIST、Fashion MNIST、CIFAR10データセットに関する予備的研究は、提案手法の効率性を実証している。
関連論文リスト
- Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Efficient Context Integration through Factorized Pyramidal Learning for
Ultra-Lightweight Semantic Segmentation [1.0499611180329804]
本稿では,FPL(Facterized Pyramidal Learning)モジュールを提案する。
空間ピラミッドを2つのステージに分解し,モジュール内での簡易かつ効率的な特徴融合により,悪名高いチェッカーボード効果を解決する。
FPLモジュールとFIRユニットをベースとしたFPLNetと呼ばれる超軽量リアルタイムネットワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T05:34:51Z) - Revisiting Image Deblurring with an Efficient ConvNet [24.703240497171503]
本稿では,大規模な有効受容場(ERF)を特徴とする軽量CNNネットワークを提案する。
我々の鍵となる設計はLaKDと呼ばれる効率的なCNNブロックであり、大きなカーネル深さの畳み込みと空間チャネルの混合構造を備えている。
パラメータが32%少なく、MACが39%少ないデフォーカス/モーションデブロアリングベンチマークデータセット上で、最先端のRestormer上で+0.17dB / +0.43dB PSNRを達成する。
論文 参考訳(メタデータ) (2023-02-04T20:42:46Z) - Image Super-resolution with An Enhanced Group Convolutional Neural
Network [102.2483249598621]
学習能力の強いCNNは、超解像問題を解くために広く選択されている。
浅層構造を持つ超解像群CNN(ESRGCNN)を提案する。
ESRGCNNは、SISRの性能、複雑さ、実行速度、画質評価およびSISRの視覚効果の観点から、最先端技術を上回っていると報告されている。
論文 参考訳(メタデータ) (2022-05-29T00:34:25Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Greedy Network Enlarging [53.319011626986004]
本稿では,計算のリアルタイム化に基づくグリーディ・ネットワーク拡大手法を提案する。
異なる段階の計算をステップバイステップで修正することで、拡張されたネットワークはMACの最適な割り当てと利用を提供する。
GhostNetへの我々の手法の適用により、最先端の80.9%と84.3%のImageNet Top-1アキュラシーを実現する。
論文 参考訳(メタデータ) (2021-07-31T08:36:30Z) - Dynamic Resolution Network [40.64164953983429]
現代のCNNの入力解像度の冗長性については、完全には研究されていない。
本稿では,各サンプルに基づいて動的に分解能を決定できる新しい動的分解能ネットワーク(DRNet)を提案する。
DRNetは34%の精度で同様の性能を実現しているが、ImageNetのResNet-50に比べて10%の精度で1.4%の精度向上を実現している。
論文 参考訳(メタデータ) (2021-06-05T13:48:33Z) - Convolution Neural Network Hyperparameter Optimization Using Simplified
Swarm Optimization [2.322689362836168]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンで広く使われている。
パフォーマンスが向上したネットワークアーキテクチャを見つけるのは容易ではない。
論文 参考訳(メタデータ) (2021-03-06T00:23:27Z) - Adaptive Pixel-wise Structured Sparse Network for Efficient CNNs [11.377052459168942]
本稿では,入力画像に応じて画素単位の間隔を生成できる新しい空間適応型フレームワークを提案する。
異なる精度/遅延条件のアプリケーションに対するオンライン調整を可能にするためにスパース制御方式を提案する。
論文 参考訳(メタデータ) (2020-10-21T15:47:13Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。