論文の概要: A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework
- arxiv url: http://arxiv.org/abs/2003.06513v2
- Date: Thu, 17 Sep 2020 00:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 00:57:44.656836
- Title: A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework
- Title(参考訳): プライバシ保護指向DNNプルーニングとモバイルアクセラレーションフレームワーク
- Authors: Yifan Gong, Zheng Zhan, Zhengang Li, Wei Niu, Xiaolong Ma, Wenhao
Wang, Bin Ren, Caiwen Ding, Xue Lin, Xiaolin Xu, and Yanzhi Wang
- Abstract要約: モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 56.57225686288006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weight pruning of deep neural networks (DNNs) has been proposed to satisfy
the limited storage and computing capability of mobile edge devices. However,
previous pruning methods mainly focus on reducing the model size and/or
improving performance without considering the privacy of user data. To mitigate
this concern, we propose a privacy-preserving-oriented pruning and mobile
acceleration framework that does not require the private training dataset. At
the algorithm level of the proposed framework, a systematic weight pruning
technique based on the alternating direction method of multipliers (ADMM) is
designed to iteratively solve the pattern-based pruning problem for each layer
with randomly generated synthetic data. In addition, corresponding
optimizations at the compiler level are leveraged for inference accelerations
on devices. With the proposed framework, users could avoid the time-consuming
pruning process for non-experts and directly benefit from compressed models.
Experimental results show that the proposed framework outperforms three
state-of-art end-to-end DNN frameworks, i.e., TensorFlow-Lite, TVM, and MNN,
with speedup up to 4.2X, 2.5X, and 2.0X, respectively, with almost no accuracy
loss, while preserving data privacy.
- Abstract(参考訳): モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
しかしながら,従来のプルーニング手法では,ユーザデータのプライバシを考慮せずに,モデルサイズ削減やパフォーマンス向上に重点を置いている。
この懸念を軽減するために、プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
提案手法のアルゴリズムレベルでは,ランダムに生成した合成データを用いて各層に対するパターンベースプルーニング問題を反復的に解くために,乗算器の交互方向法(ADMM)に基づく系統的な重み付け手法が設計されている。
さらに、コンパイラレベルの対応する最適化は、デバイス上の推論アクセラレーションに利用される。
提案されたフレームワークにより、ユーザは非専門家の時間を要するプルーニングプロセスを避け、圧縮モデルから直接恩恵を受けることができる。
実験の結果、提案フレームワークは、TensorFlow-Lite、TVM、MNNの3つの最先端のDNNフレームワークを上回るパフォーマンスを示し、それぞれ4.2X、2.5X、2.0Xまで高速化され、データのプライバシを保ちながら精度の低下はほとんどない。
関連論文リスト
- Efficient Multi-Object Tracking on Edge Devices via Reconstruction-Based Channel Pruning [0.2302001830524133]
現代のMOTシステムで使用されるような複雑なネットワークの圧縮に適したニューラルネットワークプルーニング手法を提案する。
我々は、高い精度を維持しつつ、最大70%のモデルサイズ削減を実現し、さらにJetson Orin Nanoの性能を向上させる。
論文 参考訳(メタデータ) (2024-10-11T12:37:42Z) - Benchmarking Test-Time Unsupervised Deep Neural Network Adaptation on
Edge Devices [19.335535517714703]
エッジへの展開後のディープニューラルネットワーク(DNN)の予測精度は、新しいデータの分布の変化によって、時間とともに低下する可能性がある。
バッチ正規化パラメータを再調整することにより、ノイズデータに対するモデルの予測精度を向上させるため、近年の予測時間非教師なしDNN適応技術が導入されている。
本論文は, 各種エッジデバイスの性能とエネルギーを定量化するために, この種の技術に関する総合的な研究を初めて行ったものである。
論文 参考訳(メタデータ) (2022-03-21T19:10:40Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - GRIM: A General, Real-Time Deep Learning Inference Framework for Mobile
Devices based on Fine-Grained Structured Weight Sparsity [46.75304109970339]
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方に汎用的な新しいモバイル推論加速フレームワークGRIMを設計する。
ブロックベースカラムロープルーニング(BCR)による微細粒度構造解析手法を提案する。
我々のGRIMフレームワークは、この新たなきめ細かな構造化された空間に基づいて、(a)リアルタイムモバイル推論のためのコンパイラ最適化とコード生成という2つの部分で構成されています。
論文 参考訳(メタデータ) (2021-08-25T03:50:46Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。