論文の概要: Comparison and Benchmarking of AI Models and Frameworks on Mobile
Devices
- arxiv url: http://arxiv.org/abs/2005.05085v1
- Date: Thu, 7 May 2020 15:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:58:33.758263
- Title: Comparison and Benchmarking of AI Models and Frameworks on Mobile
Devices
- Title(参考訳): モバイルデバイスにおけるAIモデルとフレームワークの比較とベンチマーク
- Authors: Chunjie Luo, Xiwen He, Jianfeng Zhan, Lei Wang, Wanling Gao, Jiahui
Dai
- Abstract要約: AIoTBenchは、モバイルおよび組み込みデバイスの推論能力の評価に焦点を当てたベンチマークスイートである。
AIoTBenchは、ResNet50、InceptionV3、DenseNet121、およびSqueezeNet、MobileNetV2、MnasNetの3つの軽量ネットワークをカバーしている。
デバイスのAI能力を比較するために、VIPS(Valid Images Per Second)とVOPS(Valid FLOPs Per Second)の2つの統合メトリクスを提案する。
- 参考スコア(独自算出の注目度): 2.881382412683538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to increasing amounts of data and compute resources, deep learning
achieves many successes in various domains. The application of deep learning on
the mobile and embedded devices is taken more and more attentions, benchmarking
and ranking the AI abilities of mobile and embedded devices becomes an urgent
problem to be solved. Considering the model diversity and framework diversity,
we propose a benchmark suite, AIoTBench, which focuses on the evaluation of the
inference abilities of mobile and embedded devices. AIoTBench covers three
typical heavy-weight networks: ResNet50, InceptionV3, DenseNet121, as well as
three light-weight networks: SqueezeNet, MobileNetV2, MnasNet. Each network is
implemented by three frameworks which are designed for mobile and embedded
devices: Tensorflow Lite, Caffe2, Pytorch Mobile. To compare and rank the AI
capabilities of the devices, we propose two unified metrics as the AI scores:
Valid Images Per Second (VIPS) and Valid FLOPs Per Second (VOPS). Currently, we
have compared and ranked 5 mobile devices using our benchmark. This list will
be extended and updated soon after.
- Abstract(参考訳): データ量と計算リソースの増加により、ディープラーニングはさまざまな領域で多くの成功を収める。
モバイルおよび組み込みデバイスにおけるディープラーニングの適用は、ますます注目され、モバイルおよび組み込みデバイスのAI能力のベンチマークとランキングは、解決すべき緊急の問題となっている。
モデルの多様性とフレームワークの多様性を考慮して,モバイルおよび組み込みデバイスの推論能力の評価に焦点を当てたベンチマークスイートAIoTBenchを提案する。
AIoTBenchは、ResNet50、InceptionV3、DenseNet121、およびSqueezeNet、MobileNetV2、MnasNetの3つの軽量ネットワークをカバーしている。
各ネットワークは,Tensorflow Lite, Caffe2, Pytorch Mobileという,モバイルおよび組み込みデバイス用に設計された3つのフレームワークによって実装されている。
デバイスのAI能力を比較してランク付けするために、AIスコアとして、VIPS(Valid Images Per Second)とVOPS(Valid FLOPs Per Second)の2つの統合メトリクスを提案する。
現在、ベンチマークを用いて5つのモバイルデバイスを比較してランク付けしています。
このリストはすぐに拡張され、更新される。
関連論文リスト
- Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - MobileVLM : A Fast, Strong and Open Vision Language Assistant for Mobile
Devices [73.46317110474064]
MobileVLM (MobileVLM) は、モバイルデバイス上で動作する多モード視覚言語モデル(MMVLM)である。
これは、CLIP方式で事前訓練されたマルチモーダル視覚モデルである、スクラッチからトレーニングされた1.4Bと2.7Bのスケールの言語モデルで構成されている。
論文 参考訳(メタデータ) (2023-12-28T08:21:24Z) - Mobile Foundation Model as Firmware [13.225478051091763]
sysはモバイルOSとハードウェアの協調管理アプローチである。
公開されているLarge Language Models (LLM) のキュレートされた選択と、動的データフローの促進を両立させる。
タスクの85%で精度を同等にし、ストレージとメモリのスケーラビリティを改善し、十分な推論速度を提供する。
論文 参考訳(メタデータ) (2023-08-28T07:21:26Z) - MobileOne: An Improved One millisecond Mobile Backbone [14.041480018494394]
モバイルデバイス上に複数のモバイルフレンドリーなネットワークを配置することで、さまざまなメトリクスを分析します。
我々は,iPhone12で1ミリ秒未満の推論時間を実現した,効率的なバックボーンMobileOneを設計する。
我々はMobileOneが,モバイル上での処理速度を何倍にも向上しつつ,効率的なアーキテクチャ内での最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-06-08T17:55:11Z) - EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision
Transformers [88.52500757894119]
自己注意に基づく視覚変換器(ViT)は、コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)に代わる、非常に競争力のあるアーキテクチャとして登場した。
われわれはEdgeViTsを紹介した。これは新しい軽量ViTのファミリーで、注目に基づく視覚モデルが初めて、最高の軽量CNNと競合することを可能にする。
論文 参考訳(メタデータ) (2022-05-06T18:17:19Z) - TopFormer: Token Pyramid Transformer for Mobile Semantic Segmentation [111.8342799044698]
textbfToken textbfPyramid Vision Transtextbfformer (textbfTopFormer)というモバイルフレンドリーなアーキテクチャを提案する。
提案された textbfTopFormer は Tokens を様々なスケールから入力として取り出して,スケール対応のセマンティック機能を生成し,対応するトークンに注入して表現を拡大する。
ADE20Kデータセットでは、TopFormerはMobileNetV3よりもmIoUの精度が5%高く、ARMベースのモバイルデバイスではレイテンシが低い。
論文 参考訳(メタデータ) (2022-04-12T04:51:42Z) - Smart at what cost? Characterising Mobile Deep Neural Networks in the
wild [16.684419342012674]
本稿では,野生におけるDeep Neural Network (DNN) の使用状況に関する総合的研究を行う。
われわれはGoogle Play Storeで最も人気のあるアプリの16万以上を分析している。
モバイルデプロイメントのコアコスト次元として,モデルのエネルギーフットプリントを測定します。
論文 参考訳(メタデータ) (2021-09-28T18:09:29Z) - Detecting soccer balls with reduced neural networks: a comparison of
multiple architectures under constrained hardware scenarios [0.8808021343665321]
この研究は、制約のあるハードウェア環境をターゲットにした最近のニューラルネットワークの提案の比較研究を提供する。
我々は、MobileNetV2とMobileNetV3モデルの複数のオープン実装を、基礎となる異なるアーキテクチャで訓練する。
以上の結果から,MobileNetV3モデルは制約シナリオのみにおいて,mAPと推論時間とのトレードオフが良好であること,また,高幅乗算器を持つMobileNetV2はサーバ側推論に適していることが示唆された。
論文 参考訳(メタデータ) (2020-09-28T23:26:25Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - MobileDets: Searching for Object Detection Architectures for Mobile
Accelerators [61.30355783955777]
逆ボトルネック層は、モバイルデバイス上の最先端のオブジェクト検出モデルにおいて、主要なビルディングブロックとなっている。
通常の畳み込みは、アクセラレーターにおけるオブジェクト検出の遅延精度トレードオフを高める強力なコンポーネントである。
我々は、モバイルアクセラレーター全体で最先端の成果を得られるオブジェクト検出モデル、MobileDetsのファミリーを得る。
論文 参考訳(メタデータ) (2020-04-30T00:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。