論文の概要: Enable Deep Learning on Mobile Devices: Methods, Systems, and
Applications
- arxiv url: http://arxiv.org/abs/2204.11786v1
- Date: Mon, 25 Apr 2022 16:52:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 12:10:49.873485
- Title: Enable Deep Learning on Mobile Devices: Methods, Systems, and
Applications
- Title(参考訳): モバイルデバイスの深層学習を可能にする:方法,システム,アプリケーション
- Authors: Han Cai, Ji Lin, Yujun Lin, Zhijian Liu, Haotian Tang, Hanrui Wang,
Ligeng Zhu, Song Han
- Abstract要約: ディープニューラルネットワーク(DNN)は人工知能(AI)分野において前例のない成功を収めた
しかし、それらの優れた性能は、計算の複雑さのかなりのコストを伴っている。
本稿では,効率的なディープラーニング手法,システム,応用について概説する。
- 参考スコア(独自算出の注目度): 46.97774949613859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved unprecedented success in the field
of artificial intelligence (AI), including computer vision, natural language
processing and speech recognition. However, their superior performance comes at
the considerable cost of computational complexity, which greatly hinders their
applications in many resource-constrained devices, such as mobile phones and
Internet of Things (IoT) devices. Therefore, methods and techniques that are
able to lift the efficiency bottleneck while preserving the high accuracy of
DNNs are in great demand in order to enable numerous edge AI applications. This
paper provides an overview of efficient deep learning methods, systems and
applications. We start from introducing popular model compression methods,
including pruning, factorization, quantization as well as compact model design.
To reduce the large design cost of these manual solutions, we discuss the
AutoML framework for each of them, such as neural architecture search (NAS) and
automated pruning and quantization. We then cover efficient on-device training
to enable user customization based on the local data on mobile devices. Apart
from general acceleration techniques, we also showcase several task-specific
accelerations for point cloud, video and natural language processing by
exploiting their spatial sparsity and temporal/token redundancy. Finally, to
support all these algorithmic advancements, we introduce the efficient deep
learning system design from both software and hardware perspectives.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、コンピュータビジョン、自然言語処理、音声認識を含む人工知能(AI)分野において前例のない成功を収めている。
しかし、その優れた性能は計算複雑性のかなりのコストがかかるため、携帯電話やiot(internet of things, モノのインターネット)デバイスなど、多くのリソースに制約されたデバイスでの利用を妨げている。
したがって、多数のエッジAIアプリケーションを実現するために、DNNの高精度を保ちながら効率のボトルネックを解消できる手法や技術が要求される。
本稿では,効率的なディープラーニング手法,システム,アプリケーションの概要を紹介する。
我々は、プルーニング、分解、量子化、コンパクトモデル設計など、一般的なモデル圧縮手法の導入から始める。
これらの手動ソリューションの設計コストを大幅に削減するために、ニューラルアーキテクチャサーチ(NAS)や自動プルーニングや量子化など、それぞれのためのAutoMLフレームワークについて論じる。
次に,モバイルデバイス上でのローカルデータに基づくユーザカスタマイズを可能にするための,効率的なオンデバイストレーニングについて紹介する。
一般的な加速度技術とは別に,空間的スパース性と時間的/時間的冗長性を生かして,ポイントクラウド,ビデオ,自然言語処理のためのタスク固有加速度をいくつか紹介する。
最後に、これらのアルゴリズムの進歩をサポートするために、ソフトウェアとハードウェアの両方の観点から効率的なディープラーニングシステム設計を導入する。
関連論文リスト
- Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Design Automation for Fast, Lightweight, and Effective Deep Learning
Models: A Survey [53.258091735278875]
本調査では,エッジコンピューティングを対象としたディープラーニングモデルの設計自動化技術について述べる。
これは、有効性、軽量性、計算コストの観点からモデルの習熟度を定量化するために一般的に使用される主要なメトリクスの概要と比較を提供する。
この調査は、ディープモデル設計自動化技術の最先端の3つのカテゴリをカバーしている。
論文 参考訳(メタデータ) (2022-08-22T12:12:43Z) - Efficient Machine Learning, Compilers, and Optimizations for Embedded
Systems [21.098443474303462]
Deep Neural Networks(DNN)は、高品質なコンピュータビジョン、自然言語処理、仮想現実アプリケーションを提供することによって、膨大な数の人工知能(AI)アプリケーションで大きな成功を収めている。
これらの新興AIアプリケーションは、計算とメモリ要求の増大も伴うため、特に限られた/メモリリソース、厳格な電力予算、小さなフォームファクタが要求される組み込みシステムでは、処理が困難である。
本章では,効率的なアルゴリズム,コンパイラ,組込みシステムに対するさまざまな最適化を実現するための,効率的な設計手法を紹介する。
論文 参考訳(メタデータ) (2022-06-06T02:54:05Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Smart at what cost? Characterising Mobile Deep Neural Networks in the
wild [16.684419342012674]
本稿では,野生におけるDeep Neural Network (DNN) の使用状況に関する総合的研究を行う。
われわれはGoogle Play Storeで最も人気のあるアプリの16万以上を分析している。
モバイルデプロイメントのコアコスト次元として,モデルのエネルギーフットプリントを測定します。
論文 参考訳(メタデータ) (2021-09-28T18:09:29Z) - How to Reach Real-Time AI on Consumer Devices? Solutions for
Programmable and Custom Architectures [7.085772863979686]
ディープニューラルネットワーク(DNN)は、オブジェクトや音声認識など、さまざまな人工知能(AI)推論タスクにおいて大きな進歩をもたらした。
このようなAIモデルをコモディティデバイスにデプロイすることは、大きな課題に直面している。
クロススタック手法によりリアルタイムな性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T11:23:12Z) - Pervasive AI for IoT Applications: Resource-efficient Distributed
Artificial Intelligence [45.076180487387575]
人工知能(AI)は、さまざまなモノのインターネット(IoT)アプリケーションやサービスにおいて大きなブレークスルーを目の当たりにした。
これは、感覚データへの容易なアクセスと、リアルタイムデータストリームのゼッタバイト(ZB)を生成する広帯域/ユビキタスデバイスの巨大なスケールによって駆動される。
広範コンピューティングと人工知能の合流により、Pervasive AIはユビキタスIoTシステムの役割を拡大した。
論文 参考訳(メタデータ) (2021-05-04T23:42:06Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。