論文の概要: Edge Devices Inference Performance Comparison
- arxiv url: http://arxiv.org/abs/2306.12093v1
- Date: Wed, 21 Jun 2023 08:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 14:18:20.804572
- Title: Edge Devices Inference Performance Comparison
- Title(参考訳): edgeデバイス推論のパフォーマンス比較
- Authors: R. Tobiasz, G. Wilczy\'nski, P. Graszka, N. Czechowski, S. {\L}uczak
- Abstract要約: 4つのエッジプラットフォーム上でのMobileNetファミリ,EfficientNet V1およびV2ファミリ,VGGモデル,Resnetファミリ,InceptionV3の推論時間について検討した。
具体的にはNVIDIA Jetson Nano、Intel Neural Stick、Google Coral USB Dongle、Google Coral PCIe。
特にMobileNetやEfficientNetファミリといった新しいモデルでは,Googleプラットフォームが平均的な推論時間を最速で提供しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we investigate the inference time of the MobileNet family,
EfficientNet V1 and V2 family, VGG models, Resnet family, and InceptionV3 on
four edge platforms. Specifically NVIDIA Jetson Nano, Intel Neural Stick,
Google Coral USB Dongle, and Google Coral PCIe. Our main contribution is a
thorough analysis of the aforementioned models in multiple settings, especially
as a function of input size, the presence of the classification head, its size,
and the scale of the model. Since throughout the industry, those architectures
are mainly utilized as feature extractors we put our main focus on analyzing
them as such. We show that Google platforms offer the fastest average inference
time, especially for newer models like MobileNet or EfficientNet family, while
Intel Neural Stick is the most universal accelerator allowing to run most
architectures. These results should provide guidance for engineers in the early
stages of AI edge systems development. All of them are accessible at
https://bulletprove.com/research/edge_inference_results.csv
- Abstract(参考訳): 本研究では,4つのエッジプラットフォーム上でのMobileNetファミリ,EfficientNet V1およびV2ファミリ,VGGモデル,Resnetファミリ,InceptionV3の推論時間について検討する。
具体的にはNVIDIA Jetson Nano、Intel Neural Stick、Google Coral USB Dongle、Google Coral PCIe。
我々の主な貢献は、上記のモデルを複数の設定で、特に入力サイズ関数、分類ヘッドの存在、サイズ、モデルのスケールとして、徹底的に分析することである。
業界全体では,これらのアーキテクチャは主として機能抽出手段として活用されています。
特にMobileNetやEfficientNetファミリのような新しいモデルでは,Googleプラットフォームが最速の平均推論時間を提供していますが,Intel Neural Stickはほとんどのアーキテクチャを実行可能な,最も普遍的なアクセラレータです。
これらの結果は、aiエッジシステム開発の初期段階のエンジニアにガイダンスを提供する。
これらはすべて、https://bulletprove.com/research/edge_inference_results.csvでアクセスできる。
関連論文リスト
- Scaling Up Your Kernels: Large Kernel Design in ConvNets towards Universal Representations [17.41381592056492]
本稿では,現代畳み込みニューラルネットワーク(ConvNets)の設計における大規模畳み込みカーネルのパラダイムを提案する。
複数の小さなカーネルを積み重ねる代わりに、少数の大規模なカーネルを採用することが、優れた設計戦略であることを示す。
我々は,大規模なカーネル・コンバネット向けに構築されたアーキテクチャ設計の体系的原則を提供するUniRepLKNetアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-10T15:43:55Z) - Exploring Hardware Friendly Bottleneck Architecture in CNN for Embedded
Computing Systems [37.58476315880561]
ZYNQベースのハードウェアプラットフォームのためのL-Mobilenetモデルを提案する。
L-Mobilenetはハードウェアコンピューティングに順応し、加速することができる。
我々のL-MobilenetモデルをZYNQ組み込みプラットフォームにデプロイし、設計性能を十分に評価する。
論文 参考訳(メタデータ) (2024-03-11T01:02:01Z) - UniRepLKNet: A Universal Perception Large-Kernel ConvNet for Audio, Video, Point Cloud, Time-Series and Image Recognition [61.01408259741114]
大規模なカーネルベースの畳み込みニューラルネットワーク(ConvNets)を設計するための4つのアーキテクチャガイドラインを提案する。
提案する大規模カーネルベースのConvNetは,画像認識における主要な性能を示す。
大規模なカーネルが、もともと熟練していないドメインにおいて、ConvNetの例外的なパフォーマンスを解放する鍵であることを発見した。
論文 参考訳(メタデータ) (2023-11-27T07:48:50Z) - Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs [148.0476219278875]
現代畳み込みニューラルネットワーク(CNN)における大規模カーネル設計の再検討
本稿では、視覚変換器(ViT)の最近の進歩に触発されて、小さなカーネルのスタックではなく、少数の大きな畳み込みカーネルを使うことが、より強力なパラダイムであることを実証する。
本稿では,カーネルサイズが31x31の純粋なCNNアーキテクチャであるRepLKNetを提案する。
論文 参考訳(メタデータ) (2022-03-13T17:22:44Z) - One Proxy Device Is Enough for Hardware-Aware Neural Architecture Search [21.50120377137633]
畳み込みニューラルネットワーク(CNN)は、ビジョンベースの自律運転やビデオコンテンツ分析など、多くの現実世界のアプリケーションで使用されている。
さまざまなターゲットデバイス上でCNN推論を実行するためには、ハードウェア対応のニューラルアーキテクチャサーチ(NAS)が不可欠である。
本稿では、遅延単調性を大幅に向上させる効率的なプロキシ適応手法を提案する。
論文 参考訳(メタデータ) (2021-11-01T18:56:42Z) - DeepEdgeBench: Benchmarking Deep Neural Networks on Edge Devices [0.6021787236982659]
Inference time and power consumption of the four Systems on a Chip (SoCs): Asus Tinker Edge R, Raspberry Pi 4, Google Coral Dev Board, Nvidia Jetson Nano, and one microcontroller, Arduino Nano 33 BLE。
推論時間の少なさ、すなわちMobileNetV2の29.3%以下では、Jetson Nanoは他のデバイスよりも高速に動作している。
論文 参考訳(メタデータ) (2021-08-21T08:13:22Z) - Revisiting Point Cloud Shape Classification with a Simple and Effective
Baseline [111.3236030935478]
評価手法の違い,データ拡張戦略,損失関数などの補助的要因が,性能に大きな違いをもたらすことがわかった。
SimpleViewと呼ばれるプロジェクションベースのメソッドは驚くほどうまく機能します。
ポイントネット++の半分のサイズでありながら、ModelNet40の洗練された最先端メソッドよりも同等かそれ以上の結果が得られる。
論文 参考訳(メタデータ) (2021-06-09T18:01:11Z) - Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets [65.28292822614418]
解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供する。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
論文 参考訳(メタデータ) (2020-10-28T08:49:45Z) - MCUNet: Tiny Deep Learning on IoT Devices [62.752899523628066]
効率的なニューラルネットワーク(TinyNAS)と軽量推論エンジン(TinyEngine)を共同で設計するフレームワークを提案する。
TinyNASは、まず検索空間を最適化してリソース制約に適合させ、次に最適化された検索空間におけるネットワークアーキテクチャを専門化する、2段階のニューラルネットワーク検索アプローチを採用している。
TinyEngineは、階層的に最適化するのではなく、全体的なネットワークトポロジに従ってメモリスケジューリングを適応し、メモリ使用量を4.8倍削減する。
論文 参考訳(メタデータ) (2020-07-20T17:59:01Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。