論文の概要: Image Classification with CondenseNeXt for ARM-Based Computing Platforms
- arxiv url: http://arxiv.org/abs/2106.14102v1
- Date: Sat, 26 Jun 2021 22:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 14:06:41.916820
- Title: Image Classification with CondenseNeXt for ARM-Based Computing Platforms
- Title(参考訳): ARMベースのコンピューティングプラットフォームのためのCondenseNeXtによる画像分類
- Authors: Priyank Kalgaonkar, Mohamed El-Sharkawy
- Abstract要約: 我々は、自動運転車向けに開発された自動運転開発プラットフォームであるBlueBox上のCondenseNeXtという超効率的なディープ・ニューラル・ニューラルネットワークアーキテクチャの実装を実演する。
計算資源が限られているARMベースの組み込みコンピューティングプラットフォーム向けに設計されたFLOPにおいて,CondenseNeXtは極めて効率的であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we demonstrate the implementation of our ultra-efficient deep
convolutional neural network architecture: CondenseNeXt on NXP BlueBox, an
autonomous driving development platform developed for self-driving vehicles. We
show that CondenseNeXt is remarkably efficient in terms of FLOPs, designed for
ARM-based embedded computing platforms with limited computational resources and
can perform image classification without the need of a CUDA enabled GPU.
CondenseNeXt utilizes the state-of-the-art depthwise separable convolution and
model compression techniques to achieve a remarkable computational efficiency.
Extensive analyses are conducted on CIFAR-10, CIFAR-100 and ImageNet datasets
to verify the performance of CondenseNeXt Convolutional Neural Network (CNN)
architecture. It achieves state-of-the-art image classification performance on
three benchmark datasets including CIFAR-10 (4.79% top-1 error), CIFAR-100
(21.98% top-1 error) and ImageNet (7.91% single model, single crop top-5
error). CondenseNeXt achieves final trained model size improvement of 2.9+ MB
and up to 59.98% reduction in forward FLOPs compared to CondenseNet and can
perform image classification on ARM-Based computing platforms without needing a
CUDA enabled GPU support, with outstanding efficiency.
- Abstract(参考訳): 本稿では、自動運転車向けに開発された自動運転開発プラットフォームであるNXP BlueBox上のCondenseNeXtという超効率的なディープ畳み込みニューラルネットワークアーキテクチャの実装を実演する。
CondenseNeXtは計算資源が限られているARMベースの組み込みコンピューティングプラットフォーム向けに設計されており、CUDAを有効にしたGPUを必要とせずに画像分類を行うことができる。
CondenseNeXtは最先端のDeepwise Separable Convolutionとモデル圧縮技術を利用して、驚くべき計算効率を実現する。
CIFAR-10, CIFAR-100, ImageNetデータセットを用いて, CondenseNeXt Convolutional Neural Network (CNN)アーキテクチャの性能を検証する。
CIFAR-10(4.79%のトップ1エラー)、CIFAR-100(21.98%トップ1エラー)、ImageNet(7.91%シングルモデル、単一作物トップ5エラー)を含む3つのベンチマークデータセットで、最先端の画像分類性能を達成する。
CondenseNeXtは2.9MB以上のモデルサイズの改善と、CondenseNetと比較して最大59.98%の削減を実現し、CUDAを有効にしたGPUサポートを必要とせずにARMベースのコンピューティングプラットフォーム上で画像分類を行うことができる。
関連論文リスト
- SHA-CNN: Scalable Hierarchical Aware Convolutional Neural Network for Edge AI [6.168286187549952]
本稿では,エッジAIアプリケーションのための階層型認識畳み込みニューラルネットワーク(SHA-CNN)モデルアーキテクチャを提案する。
提案した階層型CNNモデルは、計算効率と精度のバランスをとるために精巧に設計されている。
重要なイノベーションは、モデルの階層的な認識にあり、複数の抽象化レベルで関連する機能を識別し、優先順位付けすることができる。
論文 参考訳(メタデータ) (2024-07-31T06:44:52Z) - ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders [104.05133094625137]
完全畳み込み型マスク付きオートエンコーダフレームワークと,新たなグローバル応答正規化層を提案する。
この自己教師付き学習技術とアーキテクチャ改善の共設計により、純粋なConvNetの性能を大幅に向上させるConvNeXt V2と呼ばれる新しいモデルファミリが生まれる。
論文 参考訳(メタデータ) (2023-01-02T18:59:31Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - SegNeXt: Rethinking Convolutional Attention Design for Semantic
Segmentation [100.89770978711464]
セマンティックセグメンテーションのための単純な畳み込みネットワークアーキテクチャであるSegNeXtを提案する。
コンボリューションアテンションは、トランスフォーマーの自己認識メカニズムよりも、文脈情報をエンコードするより効率的で効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-09-18T14:33:49Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Rethinking Deconvolution for 2D Human Pose Estimation Light yet Accurate
Model for Real-time Edge Computing [0.0]
このシステムは精度が高く、SOTA HRNet 256x192の94.5%の精度を達成した。
我々のモデルはエンコーダ・デコーダアーキテクチャを採用し、その効率を改善するために注意深く縮小されている。
論文 参考訳(メタデータ) (2021-11-08T01:44:46Z) - EEEA-Net: An Early Exit Evolutionary Neural Architecture Search [6.569256728493014]
限られた計算資源を持つオンデバイスプロセッサに適した畳み込みニューラルネットワーク(CNN)アーキテクチャの探索。
The Early Exit Population Initialisation (EE-PI) for Evolutionary Algorithm (EA)。
CIFAR-10は2.46%、CIFAR-100は15.02%、ImageNetデータセットは23.8%である。
論文 参考訳(メタデータ) (2021-08-13T10:23:19Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Efficient and Generic 1D Dilated Convolution Layer for Deep Learning [52.899995651639436]
幅広いパラメータをカバーする汎用的な1D畳み込み層の効率的な実装を紹介します。
特にIntel AVX-512とAVX-512 BFloat16命令を含むアーキテクチャ向けに最適化されている。
本稿では,最適化された1次元畳み込み層の性能を,実際のゲノミクスデータセットを用いたエンドツーエンドニューラルネットワークトレーニングで実証する。
論文 参考訳(メタデータ) (2021-04-16T09:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。