論文の概要: Lightweight Residual Densely Connected Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2001.00526v2
- Date: Mon, 8 Jun 2020 14:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 03:53:01.172996
- Title: Lightweight Residual Densely Connected Convolutional Neural Network
- Title(参考訳): 軽量残響結合型畳み込みニューラルネットワーク
- Authors: Fahimeh Fooladgar and Shohreh Kasaei
- Abstract要約: 畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
- 参考スコア(独自算出の注目度): 18.310331378001397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extremely efficient convolutional neural network architectures are one of the
most important requirements for limited-resource devices (such as embedded and
mobile devices). The computing power and memory size are two important
constraints of these devices. Recently, some architectures have been proposed
to overcome these limitations by considering specific hardware-software
equipment. In this paper, the lightweight residual densely connected blocks are
proposed to guaranty the deep supervision, efficient gradient flow, and feature
reuse abilities of convolutional neural network. The proposed method decreases
the cost of training and inference processes without using any special
hardware-software equipment by just reducing the number of parameters and
computational operations while achieving a feasible accuracy. Extensive
experimental results demonstrate that the proposed architecture is more
efficient than the AlexNet and VGGNet in terms of model size, required
parameters, and even accuracy. The proposed model has been evaluated on the
ImageNet, MNIST, Fashion MNIST, SVHN, CIFAR-10, and CIFAR-100. It achieves
state-of-the-art results on Fashion MNIST dataset and reasonable results on the
others. The obtained results show the superiority of the proposed method to
efficient models such as the SqueezNet. It is also comparable with
state-of-the-art efficient models such as CondenseNet and ShuffleNet.
- Abstract(参考訳): 非常に効率的な畳み込みニューラルネットワークアーキテクチャは、限られたリソースデバイス(組み込みデバイスやモバイルデバイスなど)にとって最も重要な要件の1つです。
コンピューティングパワーとメモリサイズは、これらのデバイスの2つの重要な制約である。
近年、特定のハードウェア・ソフトウェア機器を考慮し、これらの制限を克服するアーキテクチャが提案されている。
本稿では,畳み込みニューラルネットワークの深い監視,効率的な勾配流,特徴的再利用能力を実現するため,軽量な残留密結合ブロックを提案する。
提案手法は,パラメータや計算操作の数を削減しつつ,実現可能な精度を実現し,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
大規模な実験結果から,提案アーキテクチャはモデルサイズ,要求パラメータ,さらには精度の観点から,AlexNetやVGGNetよりも効率的であることが示された。
提案モデルはImageNet, MNIST, Fashion MNIST, SVHN, CIFAR-10, CIFAR-100で評価されている。
Fashion MNISTデータセットの最先端結果と、他のデータに対する妥当な結果を達成する。
その結果,提案手法がSqueezNetなどの効率的なモデルに優れていることを示す。
また、CondenseNetやShuffleNetのような最先端の効率的なモデルに匹敵する。
関連論文リスト
- Energy-Aware FPGA Implementation of Spiking Neural Network with LIF Neurons [0.5243460995467893]
スパイキングニューラルネットワーク(SNN)は、TinyMLの最先端ソリューションとして際立っている。
本稿では,第1次Leaky Integrate-and-Fire(LIF)ニューロンモデルに基づく新しいSNNアーキテクチャを提案する。
ハードウェアフレンドリーなLIF設計も提案され、Xilinx Artix-7 FPGA上で実装されている。
論文 参考訳(メタデータ) (2024-11-03T16:42:10Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Compact CNN Structure Learning by Knowledge Distillation [34.36242082055978]
知識蒸留とカスタマイズ可能なブロックワイズ最適化を活用し、軽量なCNN構造を学習するフレームワークを提案する。
提案手法は,予測精度の向上を図りながら,アートネットワーク圧縮の状態を再現する。
特に,すでにコンパクトなネットワークであるMobileNet_v2では,モデル圧縮が最大2倍,モデル圧縮が5.2倍向上する。
論文 参考訳(メタデータ) (2021-04-19T10:34:22Z) - Convolution Neural Network Hyperparameter Optimization Using Simplified
Swarm Optimization [2.322689362836168]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンで広く使われている。
パフォーマンスが向上したネットワークアーキテクチャを見つけるのは容易ではない。
論文 参考訳(メタデータ) (2021-03-06T00:23:27Z) - DBQ: A Differentiable Branch Quantizer for Lightweight Deep Neural
Networks [4.358626952482686]
本稿では, 効率的な3成分系ドット製品エンジンにシームレスにマッピングできる新しい非一様量子化器を提案する。
提案する量子化器 (DBQ) は,MobileNetV1, MobileNetV2, ShuffleNetV2 などの軽量ネットワークを積極的に定量化するという,突進的な課題に対処する。
DBQは、トレーニングオーバーヘッドを最小限に抑えながら、最先端の成果を達成し、最適な(最適に最適化された)精度/複雑さのトレードオフを提供する。
論文 参考訳(メタデータ) (2020-07-19T23:50:09Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。