論文の概要: Exploring Hardware Friendly Bottleneck Architecture in CNN for Embedded
Computing Systems
- arxiv url: http://arxiv.org/abs/2403.06352v1
- Date: Mon, 11 Mar 2024 01:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:40:27.286261
- Title: Exploring Hardware Friendly Bottleneck Architecture in CNN for Embedded
Computing Systems
- Title(参考訳): 組み込みコンピューティングシステムのためのCNNにおけるハードウェアフレンドリーなBottleneckアーキテクチャの探索
- Authors: Xing Lei, Longjun Liu, Zhiheng Zhou, Hongbin Sun, Nanning Zheng
- Abstract要約: ZYNQベースのハードウェアプラットフォームのためのL-Mobilenetモデルを提案する。
L-Mobilenetはハードウェアコンピューティングに順応し、加速することができる。
我々のL-MobilenetモデルをZYNQ組み込みプラットフォームにデプロイし、設計性能を十分に評価する。
- 参考スコア(独自算出の注目度): 37.58476315880561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore how to design lightweight CNN architecture for
embedded computing systems. We propose L-Mobilenet model for ZYNQ based
hardware platform. L-Mobilenet can adapt well to the hardware computing and
accelerating, and its network structure is inspired by the state-of-the-art
work of Inception-ResnetV1 and MobilenetV2, which can effectively reduce
parameters and delay while maintaining the accuracy of inference. We deploy our
L-Mobilenet model to ZYNQ embedded platform for fully evaluating the
performance of our design. By measuring in cifar10 and cifar100 datasets,
L-Mobilenet model is able to gain 3x speed up and 3.7x fewer parameters than
MobileNetV2 while maintaining a similar accuracy. It also can obtain 2x speed
up and 1.5x fewer parameters than ShufflenetV2 while maintaining the same
accuracy. Experiments show that our network model can obtain better performance
because of the special considerations for hardware accelerating and
software-hardware co-design strategies in our L-Mobilenet bottleneck
architecture.
- Abstract(参考訳): 本稿では,組み込みコンピューティングシステムのための軽量CNNアーキテクチャの設計方法について検討する。
ZYNQベースのハードウェアプラットフォームのためのL-Mobilenetモデルを提案する。
L-Mobilenetはハードウェア・コンピューティングに順応し、ネットワーク構造はInception-ResnetV1とMobilenetV2の最先端の業績にインスパイアされ、推論の精度を維持しながらパラメータや遅延を効果的に低減できる。
我々のL-MobilenetモデルをZYNQ組み込みプラットフォームにデプロイし、設計性能を十分に評価する。
cifar10とcifar100データセットの測定により、L-MobilenetモデルはMobileNetV2よりも3倍のスピードアップと3.7倍のパラメータを獲得でき、同様の精度を維持している。
また、ShufflenetV2と同じ精度を維持しながら、2倍のスピードアップと1.5倍のパラメータを得ることができる。
実験の結果,L-Mobilenetボトルネックアーキテクチャにおけるハードウェアの高速化とソフトウェアハードウェアの共同設計戦略を考慮すれば,ネットワークモデルの性能向上が期待できることがわかった。
関連論文リスト
- Rethinking Vision Transformers for MobileNet Size and Speed [58.01406896628446]
本稿では,低レイテンシでパラメータ効率の高い新しいスーパーネットを提案する。
また,変圧器モデルに対して,よりきめ細かな共同探索戦略を導入する。
この研究は、MobileNetレベルのサイズと速度であっても、適切に設計され、最適化されたビジョントランスフォーマーがハイパフォーマンスを実現することを実証している。
論文 参考訳(メタデータ) (2022-12-15T18:59:12Z) - EASNet: Searching Elastic and Accurate Network Architecture for Stereo
Matching [18.89677182772221]
ステレオマッチングのための弾性的かつ正確なネットワークをトレーニングすることを提案する。
EASNetは、さまざまなコンピューティング機能を持つデバイス上で、さまざまな3Dアーキテクチャ設定をサポートする。
我々の実験によると、EASNetは最先端の人間設計アーキテクチャとNASベースのアーキテクチャの両方より優れています。
論文 参考訳(メタデータ) (2022-07-20T10:26:18Z) - EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision
Transformers [88.52500757894119]
自己注意に基づく視覚変換器(ViT)は、コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)に代わる、非常に競争力のあるアーキテクチャとして登場した。
われわれはEdgeViTsを紹介した。これは新しい軽量ViTのファミリーで、注目に基づく視覚モデルが初めて、最高の軽量CNNと競合することを可能にする。
論文 参考訳(メタデータ) (2022-05-06T18:17:19Z) - Algorithm and Hardware Co-design for Reconfigurable CNN Accelerator [3.1431240233552007]
ディープニューラルネットワーク(DNN)のためのアルゴリズムハードウェアの共同設計の最近の進歩は、ニューラルネットワークやハードウェア設計を自動設計する可能性を示している。
しかし、高価なトレーニングコストと時間を要するハードウェア実装のため、これは依然として困難な最適化問題である。
本稿では,新しい3相共設計フレームワークを提案する。
ネットワークとハードウェアの構成は精度が2%向上し,レイテンシが2倍26倍,エネルギー効率が8.5倍向上した。
論文 参考訳(メタデータ) (2021-11-24T20:37:50Z) - FADNet++: Real-Time and Accurate Disparity Estimation with Configurable
Networks [19.29846600092521]
FADNet++は、分散度推定のための効率的なディープネットワークである。
リアルタイムアプリケーションのための高速なモデル推論速度で精度を高めることができる。
SceneFlowデータセットの新たな最先端結果を実現している。
論文 参考訳(メタデータ) (2021-10-06T08:50:33Z) - Larq Compute Engine: Design, Benchmark, and Deploy State-of-the-Art
Binarized Neural Networks [2.0584583078037633]
本稿では,世界最速のバイナリニューラルネットワーク(BNN)推論エンジンであるLar Computeq Engineを紹介する。
LCEは、バイナリ操作の高度に最適化された実装を提供し、Pixel 1の完全な精度と比較して、バイナリの畳み込みを8.5から18.5倍加速する。
我々は、ImageNetのレイテンシと精度で既存のバイナリネットワークよりも優れた、シンプルで再現しやすいBNNであるQuickNetを開発した。
論文 参考訳(メタデータ) (2020-11-18T16:56:14Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。