論文の概要: Dynamic Resolution Network
- arxiv url: http://arxiv.org/abs/2106.02898v1
- Date: Sat, 5 Jun 2021 13:48:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:08:16.320724
- Title: Dynamic Resolution Network
- Title(参考訳): 動的分解能ネットワーク
- Authors: Mingjian Zhu, Kai Han, Enhua Wu, Qiulin Zhang, Ying Nie, Zhenzhong
Lan, Yunhe Wang
- Abstract要約: 現代のCNNの入力解像度の冗長性については、完全には研究されていない。
本稿では,各サンプルに基づいて動的に分解能を決定できる新しい動的分解能ネットワーク(DRNet)を提案する。
DRNetは34%の精度で同様の性能を実現しているが、ImageNetのResNet-50に比べて10%の精度で1.4%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 40.64164953983429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks (CNNs) are often of sophisticated design
with numerous convolutional layers and learnable parameters for the accuracy
reason. To alleviate the expensive costs of deploying them on mobile devices,
recent works have made huge efforts for excavating redundancy in pre-defined
architectures. Nevertheless, the redundancy on the input resolution of modern
CNNs has not been fully investigated, i.e., the resolution of input image is
fixed. In this paper, we observe that the smallest resolution for accurately
predicting the given image is different using the same neural network. To this
end, we propose a novel dynamic-resolution network (DRNet) in which the
resolution is determined dynamically based on each input sample. Thus, a
resolution predictor with negligible computational costs is explored and
optimized jointly with the desired network. In practice, the predictor learns
the smallest resolution that can retain and even exceed the original
recognition accuracy for each image. During the inference, each input image
will be resized to its predicted resolution for minimizing the overall
computation burden. We then conduct extensive experiments on several benchmark
networks and datasets. The results show that our DRNet can be embedded in any
off-the-shelf network architecture to obtain a considerable reduction in
computational complexity. For instance, DRNet achieves similar performance with
an about 34% computation reduction, while gains 1.4% accuracy increase with 10%
computation reduction compared to the original ResNet-50 on ImageNet.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(deep convolutional neural network, cnns)は、多くの畳み込み層と学習可能なパラメータを持つ、精度の高い設計であることが多い。
モバイルデバイスにデプロイするコストを軽減するために、最近の作業は、事前定義されたアーキテクチャの冗長性を掘り下げるために多大な努力をしてきた。
それでも、現代のCNNの入力解像度の冗長性は十分に研究されておらず、すなわち、入力画像の解像度が固定されている。
本稿では,与えられた画像を正確に予測する最小の解像度が,同じニューラルネットワークを用いて異なることを観察する。
そこで本研究では,各サンプルに基づいて動的に解像度を決定できる新しい動的分解能ネットワーク(DRNet)を提案する。
このように、計算コストが無視される分解能予測器を探索し、所望のネットワークと共同で最適化する。
実際、予測器は、各画像に対する元の認識精度を保ち、さらに超えうる最小の解像度を学習する。
推論中、各入力画像は予測された解像度にリサイズされ、全体の計算負担を最小化する。
次に、いくつかのベンチマークネットワークとデータセットで広範な実験を行う。
その結果,我々のDRNetを市販のネットワークアーキテクチャに組み込むことで,計算複雑性を大幅に低減できることがわかった。
例えば、drnetは34%の減算で同様の性能を達成し、imagenetのresnet-50と比較して10%の減算で1.4%の精度向上を達成している。
関連論文リスト
- Leveraging Image Complexity in Macro-Level Neural Network Design for
Medical Image Segmentation [3.974175960216864]
画像の複雑さは、与えられたデータセットに最適なものを選択するためのガイドラインとして利用できることを示す。
高複雑性データセットの場合、元のイメージ上で実行される浅いネットワークは、ダウンサンプリングされたイメージ上で実行されるディープネットワークよりもセグメンテーション結果が優れている可能性がある。
論文 参考訳(メタデータ) (2021-12-21T09:49:47Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Enhancing sensor resolution improves CNN accuracy given the same number
of parameters or FLOPS [53.10151901863263]
パラメータ数やFLOPSが同じで、高い入力解像度で高い精度が得られるように、ネットワークを変更することは、ほぼ常に可能であることを示す。
MNIST、Fashion MNIST、CIFAR10データセットに関する予備的研究は、提案手法の効率性を実証している。
論文 参考訳(メタデータ) (2021-03-09T06:47:01Z) - Glance and Focus: a Dynamic Approach to Reducing Spatial Redundancy in
Image Classification [46.885260723836865]
ディープ畳み込みニューラルネットワーク (Deep Convolutional Neural Network, CNN) は、高解像度画像で処理することで一般的に改善される。
画像中のすべての領域がタスク関連であるとは限らないという事実に着想を得て,効率的な画像分類を行う新しいフレームワークを提案する。
我々のフレームワークは、最先端の軽量CNNの多くと互換性があり、汎用的で柔軟です。
論文 参考訳(メタデータ) (2020-10-11T17:55:06Z) - Resolution Switchable Networks for Runtime Efficient Image Recognition [46.09537029831355]
本稿では,推論時に画像解像度を切り替えることのできる,単一の畳み込みニューラルネットワークを訓練する一般的な手法を提案する。
提案手法でトレーニングしたネットワークは、Resolvation Switchable Networks (RS-Nets) と呼ばれる。
論文 参考訳(メタデータ) (2020-07-19T02:12:59Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - LSHR-Net: a hardware-friendly solution for high-resolution computational
imaging using a mixed-weights neural network [5.475867050068397]
本稿では,混合重み付けニューラルネットワークを用いた新しいハードウェアフレンドリな計算手法を提案する。
特に、学習された二分重センシングパターンはサンプリング装置に合わせて調整される。
提案手法はベンチマークデータセットで検証され, 再現精度が向上した。
論文 参考訳(メタデータ) (2020-04-27T20:59:51Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。