論文の概要: Swan: A Neural Engine for Efficient DNN Training on Smartphone SoCs
- arxiv url: http://arxiv.org/abs/2206.04687v1
- Date: Thu, 9 Jun 2022 05:23:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:34:31.295561
- Title: Swan: A Neural Engine for Efficient DNN Training on Smartphone SoCs
- Title(参考訳): Swan: スマートフォン SoC 上での DNN トレーニングを効率的に行うニューラルネットワークエンジン
- Authors: Sanjay Sri Vallabh Singapuram, Fan Lai, Chuheng Hu, Mosharaf Chowdhury
- Abstract要約: ユーザエクスペリエンスを損なうことなく、スマートフォンのSOC上でのDNNトレーニングを最適化するニューラルエンジンであるSwanを紹介する。
スワンは最先端よりも1.2から23.3倍の性能を向上させることができる。
- 参考スコア(独自算出の注目度): 3.050083027493915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need to train DNN models on end-user devices (e.g., smartphones) is
increasing with the need to improve data privacy and reduce communication
overheads. Unlike datacenter servers with powerful CPUs and GPUs, modern
smartphones consist of a diverse collection of specialized cores following a
system-on-a-chip (SoC) architecture that together perform a variety of tasks.
We observe that training DNNs on a smartphone SoC without carefully considering
its resource constraints can not only lead to suboptimal training performance
but significantly affect user experience as well. In this paper, we present
Swan, a neural engine to optimize DNN training on smartphone SoCs without
hurting user experience. Extensive large-scale evaluations show that Swan can
improve performance by 1.2 - 23.3x over the state-of-the-art.
- Abstract(参考訳): エンドユーザデバイス(例えばスマートフォン)でDNNモデルをトレーニングする必要性は、データのプライバシを改善し、通信オーバーヘッドを低減する必要性によって増大している。
強力なcpuとgpuを備えたデータセンタサーバとは異なり、現代のスマートフォンはさまざまなタスクを実行するsystem-on-a-chip(soc)アーキテクチャに従って、さまざまな特殊なコアの集合で構成されている。
我々は,スマートフォンSoC上でのDNNのトレーニングが,リソース制約を慎重に考慮することなく,最適なトレーニング性能をもたらすだけでなく,ユーザエクスペリエンスにも大きな影響を与えることを観察した。
本稿では,スマートフォンのSoCにおけるDNNトレーニングを,ユーザエクスペリエンスを損なうことなく最適化するニューラルエンジンであるSwanを紹介する。
大規模な評価では、Swanは最先端よりも1.2~23.3倍の性能向上が可能である。
関連論文リスト
- Smartphone-based Eye Tracking System using Edge Intelligence and Model Optimisation [2.9123921488295768]
我々は、コンボリューショナルニューラルネットワーク(CNN)と2つの異なるリカレントニューラルネットワーク(RNN)を組み合わせることで、ビデオ型視覚のための2つの新しいスマートフォンアイトラッキング技術を開発した。
我々のCNN+LSTMモデルとCNN+GRUモデルは平均根平均角誤差0.955cmと1.091cmを達成した。
スマートフォンの計算制約に対処するため,スマートフォンによるアイトラッキングの性能向上を目的としたエッジインテリジェンスアーキテクチャを開発した。
論文 参考訳(メタデータ) (2024-08-22T15:04:59Z) - MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Enabling Deep Learning on Edge Devices [2.741266294612776]
ディープニューラルネットワーク(DNN)は、コンピュータビジョン、自然言語処理、強化学習など、多くの異なる認識タスクに成功している。
高性能DNNは資源消費に大きく依存している。
近年、AR/VR、モバイルアシスタント、モノのインターネットなど、新たなインテリジェントなアプリケーションでは、リソース制約のあるエッジデバイスにDNNをデプロイする必要があります。
この論文では,エッジデバイスへの推論,エッジデバイスへの適応,エッジデバイスへの学習,エッジサーバシステムという4つのエッジインテリジェンスシナリオについて検討した。
論文 参考訳(メタデータ) (2022-10-06T20:52:57Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - A New Frontier of AI: On-Device AI Training and Personalization [6.7695933714356045]
メモリ効率の高いニューラルネットワークトレーニング技術を提供する軽量オンデバイストレーニングフレームワークNNTrainerを提案する。
評価の結果,NNTrainerはメモリ消費を1/20まで削減し,デバイス上でのインテリジェンスサービスを効果的にパーソナライズできることがわかった。
論文 参考訳(メタデータ) (2022-06-09T08:27:59Z) - Scalable Smartphone Cluster for Deep Learning [17.979269630872608]
ディープニューラルネットワーク(DNN)のトレーニングには、単一のスマートフォンで実行するには計算負荷が大きすぎる。
携帯クラスタはスマートフォンと無線ネットワークを接続し、それを用いた並列計算をサポートする。
ポータビリティを取り除き,計算効率を向上させることによって,ディープラーニングのトレーニングを可能にするスケーラブルなスマートフォンクラスタを提案する。
論文 参考訳(メタデータ) (2021-10-23T08:48:24Z) - Smart at what cost? Characterising Mobile Deep Neural Networks in the
wild [16.684419342012674]
本稿では,野生におけるDeep Neural Network (DNN) の使用状況に関する総合的研究を行う。
われわれはGoogle Play Storeで最も人気のあるアプリの16万以上を分析している。
モバイルデプロイメントのコアコスト次元として,モデルのエネルギーフットプリントを測定します。
論文 参考訳(メタデータ) (2021-09-28T18:09:29Z) - How Do Adam and Training Strategies Help BNNs Optimization? [50.22482900678071]
我々は、AdamがBNNの粗い損失面を扱うのに適しており、より高い一般化能力でより良い最適値に達することを示す。
我々は、既存のAdamベースの最適化に基づいて、ImageNetデータセット上で70.5%のトップ1の精度を達成する簡単なトレーニングスキームを導出する。
論文 参考訳(メタデータ) (2021-06-21T17:59:51Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Towards Real-Time DNN Inference on Mobile Platforms with Model Pruning
and Compiler Optimization [56.3111706960878]
ハイエンドなモバイルプラットフォームは、幅広いDeep Neural Network (DNN)アプリケーションのための主要なコンピューティングデバイスとして機能する。
これらのデバイス上の制約付き計算とストレージリソースは、リアルタイムの推論実行に重大な課題をもたらす。
モバイル端末上でのDNN実行を高速化するハードウェアフレンドリーな構造化モデルプルーニングとコンパイラ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-04-22T03:18:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。