論文の概要: EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox
- arxiv url: http://arxiv.org/abs/2111.14243v1
- Date: Sun, 28 Nov 2021 21:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 15:00:34.970152
- Title: EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox
- Title(参考訳): EffCNet: NXP BlueBoxの画像分類のための効率的なCondenseNet
- Authors: Priyank Kalgaonkar, Mohamed El-Sharkawy
- Abstract要約: エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent edge devices with built-in processors vary widely in terms of
capability and physical form to perform advanced Computer Vision (CV) tasks
such as image classification and object detection, for example. With constant
advances in the field of autonomous cars and UAVs, embedded systems and mobile
devices, there has been an ever-growing demand for extremely efficient
Artificial Neural Networks (ANN) for real-time inference on these smart edge
devices with constrained computational resources. With unreliable network
connections in remote regions and an added complexity of data transmission, it
is of an utmost importance to capture and process data locally instead of
sending the data to cloud servers for remote processing. Edge devices on the
other hand, offer limited processing power due to their inexpensive hardware,
and limited cooling and computational resources. In this paper, we propose a
novel deep convolutional neural network architecture called EffCNet which is an
improved and an efficient version of CondenseNet Convolutional Neural Network
(CNN) for edge devices utilizing self-querying data augmentation and depthwise
separable convolutional strategies to improve real-time inference performance
as well as reduce the final trained model size, trainable parameters, and
Floating-Point Operations (FLOPs) of EffCNet CNN. Furthermore, extensive
supervised image classification analyses are conducted on two benchmarking
datasets: CIFAR-10 and CIFAR-100, to verify real-time inference performance of
our proposed CNN. Finally, we deploy these trained weights on NXP BlueBox which
is an intelligent edge development platform designed for self-driving vehicles
and UAVs, and conclusions will be extrapolated accordingly.
- Abstract(参考訳): 内蔵プロセッサを備えたインテリジェントエッジデバイスは、例えば画像分類やオブジェクト検出といった高度なコンピュータビジョン(CV)タスクを実行する能力や物理的形態の点で、幅広い。
自動運転車やuav、組み込みシステム、モバイルデバイスといった分野の絶え間ない進歩により、計算リソースに制約のあるスマートエッジデバイス上でリアルタイム推論を行うための、極めて効率的なニューラルネットワーク(ann)の必要性がますます高まっている。
リモートリージョンにおける信頼性の低いネットワーク接続とデータ転送の複雑さにより、データをリモート処理のためにクラウドサーバに送信する代わりに、データをローカルにキャプチャして処理することが最も重要である。
一方エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
本稿では,EffCNet CNNのモデルサイズ,トレーニング可能なパラメータ,浮動小数点演算(FLOP)を低減し,リアルタイムの推論性能を向上させるために,自己クエリデータ拡張と深度的に分離可能な畳み込み戦略を活用するエッジデバイスのための,CondenseNet Convolutional Neural Network(CNN)の改良と効率的なバージョンであるEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
さらに,提案したCNNのリアルタイム推論性能を検証するために,CIFAR-10とCIFAR-100の2つのベンチマークデータセットを用いて画像分類を行った。
最後に、これらのトレーニングされた重量は、自動運転車やUAV向けに設計されたインテリジェントエッジ開発プラットフォームであるNXP BlueBoxにデプロイします。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Evolution of Convolutional Neural Network (CNN): Compute vs Memory
bandwidth for Edge AI [0.0]
この記事では、Edge AIのコンテキストにおけるCNN計算要求とメモリ帯域幅の関係について検討する。
モデル複雑性が計算要求とメモリアクセスパターンの両方に与える影響について検討する。
この分析は、エッジデバイス上でのCNNパフォーマンス向上において、効率的なアーキテクチャと潜在的なハードウェアアクセラレータの設計に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-09-24T09:11:22Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - perf4sight: A toolflow to model CNN training performance on Edge GPUs [16.61258138725983]
この研究は、CNNのトレーニングメモリフットプリントとレイテンシを予測する正確なモデルを開発するための自動化手法であるperf4sightを提案する。
フレームワークはPyTorch、ターゲットデバイスはNVIDIA Jetson TX2、それぞれ95%と91%の精度でトレーニングメモリフットプリントとレイテンシを予測する。
論文 参考訳(メタデータ) (2021-08-12T07:55:37Z) - Cost-effective Machine Learning Inference Offload for Edge Computing [0.3149883354098941]
本稿では,インストール・ベース・オンプレミス(edge)計算資源を活用した新しいオフロード機構を提案する。
提案するメカニズムにより、エッジデバイスは、リモートクラウドを使用する代わりに、重い計算集約的なワークロードをエッジノードにオフロードすることができる。
論文 参考訳(メタデータ) (2020-12-07T21:11:02Z) - Neural Compression and Filtering for Edge-assisted Real-time Object
Detection in Challenged Networks [8.291242737118482]
我々はディープニューラルネットワーク(DNN)を用いた遠隔物体検出支援エッジコンピューティングに焦点をあてる。
無線リンクを介して送信されるデータの量を削減するためのフレームワークを開発する。
提案手法は,パラメータ領域における局所演算とエッジ演算の効果的な中間オプションを示す。
論文 参考訳(メタデータ) (2020-07-31T03:11:46Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。