論文の概要: MNN: A Universal and Efficient Inference Engine
- arxiv url: http://arxiv.org/abs/2002.12418v1
- Date: Thu, 27 Feb 2020 20:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 08:21:45.764978
- Title: MNN: A Universal and Efficient Inference Engine
- Title(参考訳): MNN: ユニバーサルで効率的な推論エンジン
- Authors: Xiaotang Jiang, Huan Wang, Yiliu Chen, Ziqi Wu, Lichuan Wang, Bin Zou,
Yafeng Yang, Zongyang Cui, Yu Cai, Tianhang Yu, Chengfei Lv, Zhihua Wu
- Abstract要約: Mobile Neural Network (MNN) は、モバイルアプリケーションに適した汎用的で効率的な推論エンジンである。
MNN のコントリビューションには,(1) ランタイム最適化の実行を管理するプリ推論と呼ばれるメカニズムの提示,(2) 最適なパフォーマンスを達成するために演算子にカーネル最適化を提供する,(3) ハイブリッドスケジューリングを可能にするバックエンド抽象化モジュールの導入,エンジンの軽量化などが含まれている。
- 参考スコア(独自算出の注目度): 6.830174586230231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying deep learning models on mobile devices draws more and more
attention recently. However, designing an efficient inference engine on devices
is under the great challenges of model compatibility, device diversity, and
resource limitation. To deal with these challenges, we propose Mobile Neural
Network (MNN), a universal and efficient inference engine tailored to mobile
applications. In this paper, the contributions of MNN include: (1) presenting a
mechanism called pre-inference that manages to conduct runtime optimization;
(2)deliveringthorough kernel optimization on operators to achieve optimal
computation performance; (3) introducing backend abstraction module which
enables hybrid scheduling and keeps the engine lightweight. Extensive benchmark
experiments demonstrate that MNN performs favorably against other popular
lightweight deep learning frameworks. MNN is available to public at:
https://github.com/alibaba/MNN.
- Abstract(参考訳): モバイルデバイスにディープラーニングモデルをデプロイすることは、最近ますます注目を集めている。
しかし、デバイス上で効率的な推論エンジンを設計することは、モデル互換性、デバイスの多様性、リソース制限といった大きな課題の下にあります。
これらの課題に対処するために,モバイルアプリケーションに適した汎用的で効率的な推論エンジンであるMobile Neural Network (MNN)を提案する。
本稿では,(1)実行時最適化を管理するプリ推論と呼ばれるメカニズムの提示,(2)最適な計算性能を実現するための演算子へのカーネル最適化の提供,(3)ハイブリッドスケジューリングを可能にするバックエンド抽象化モジュールの導入,およびエンジンの軽量化。
大規模なベンチマーク実験により、MNNは他の人気のある軽量ディープラーニングフレームワークに対して好意的に機能することが示された。
MNNは、https://github.com/alibaba/MNN.comで公開されている。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Resource Constrained Model Compression via Minimax Optimization for
Spiking Neural Networks [11.19282454437627]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型および高エネルギー効率ネットワークの特徴を持つ。
これらのネットワークをリソース制限されたエッジデバイスに直接展開することは困難である。
本稿では,このスパース学習問題に対するエンドツーエンドの Minimax 最適化手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:50:15Z) - Adaptive DNN Surgery for Selfish Inference Acceleration with On-demand
Edge Resource [25.274288063300844]
ディープニューラルネットワーク(DNN)は、モバイルデバイス上のインテリジェントアプリケーションの精度を大幅に改善した。
DNN手術は、モバイルデバイスの計算能力に制限があるにもかかわらず、リアルタイムの推論を可能にする。
本稿では,分散DNN手術(Decentralized DNN Surgery, DDS)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2023-06-21T11:32:28Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - GRIM: A General, Real-Time Deep Learning Inference Framework for Mobile
Devices based on Fine-Grained Structured Weight Sparsity [46.75304109970339]
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方に汎用的な新しいモバイル推論加速フレームワークGRIMを設計する。
ブロックベースカラムロープルーニング(BCR)による微細粒度構造解析手法を提案する。
我々のGRIMフレームワークは、この新たなきめ細かな構造化された空間に基づいて、(a)リアルタイムモバイル推論のためのコンパイラ最適化とコード生成という2つの部分で構成されています。
論文 参考訳(メタデータ) (2021-08-25T03:50:46Z) - Towards Real-Time DNN Inference on Mobile Platforms with Model Pruning
and Compiler Optimization [56.3111706960878]
ハイエンドなモバイルプラットフォームは、幅広いDeep Neural Network (DNN)アプリケーションのための主要なコンピューティングデバイスとして機能する。
これらのデバイス上の制約付き計算とストレージリソースは、リアルタイムの推論実行に重大な課題をもたらす。
モバイル端末上でのDNN実行を高速化するハードウェアフレンドリーな構造化モデルプルーニングとコンパイラ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-04-22T03:18:23Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。