論文の概要: AdaDeep: A Usage-Driven, Automated Deep Model Compression Framework for
Enabling Ubiquitous Intelligent Mobiles
- arxiv url: http://arxiv.org/abs/2006.04432v1
- Date: Mon, 8 Jun 2020 09:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:19:52.543122
- Title: AdaDeep: A Usage-Driven, Automated Deep Model Compression Framework for
Enabling Ubiquitous Intelligent Mobiles
- Title(参考訳): AdaDeep:ユビキタスなインテリジェントなモバイルを実現するための、ユーザ駆動で自動化されたディープモデル圧縮フレームワーク
- Authors: Sicong Liu, Junzhao Du, Kaiming Nan, ZimuZhou, Atlas Wang, Yingyan Lin
- Abstract要約: 我々はAdaDeepを提案し、パフォーマンスとリソースの制約の間の望ましいトレードオフについて検討する。
AdaDeepは18.6times$遅延低減、9.8times$エネルギー効率の改善、37.3times$DNNのストレージ削減を達成できる。
- 参考スコア(独自算出の注目度): 21.919700946676393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent breakthroughs in Deep Neural Networks (DNNs) have fueled a
tremendously growing demand for bringing DNN-powered intelligence into mobile
platforms. While the potential of deploying DNNs on resource-constrained
platforms has been demonstrated by DNN compression techniques, the current
practice suffers from two limitations: 1) merely stand-alone compression
schemes are investigated even though each compression technique only suit for
certain types of DNN layers; and 2) mostly compression techniques are optimized
for DNNs' inference accuracy, without explicitly considering other
application-driven system performance (e.g., latency and energy cost) and the
varying resource availability across platforms (e.g., storage and processing
capability). To this end, we propose AdaDeep, a usage-driven, automated DNN
compression framework for systematically exploring the desired trade-off
between performance and resource constraints, from a holistic system level.
Specifically, in a layer-wise manner, AdaDeep automatically selects the most
suitable combination of compression techniques and the corresponding
compression hyperparameters for a given DNN. Thorough evaluations on six
datasets and across twelve devices demonstrate that AdaDeep can achieve up to
$18.6\times$ latency reduction, $9.8\times$ energy-efficiency improvement, and
$37.3\times$ storage reduction in DNNs while incurring negligible accuracy
loss. Furthermore, AdaDeep also uncovers multiple novel combinations of
compression techniques.
- Abstract(参考訳): 近年のDeep Neural Networks(DNN)のブレークスルーは、モバイルプラットフォームにDNNを利用したインテリジェンスを導入するという、非常に大きな需要を刺激している。
リソース制約のあるプラットフォームにDNNをデプロイする可能性は、DNN圧縮技術によって実証されているが、現在のプラクティスには2つの制限がある。
1) 各圧縮手法は特定のDNN層にのみ適合するが, 単項圧縮方式が検討される。
2) 主に圧縮技術はdnnの推論精度に最適化されており、他のアプリケーション駆動システム性能(レイテンシやエネルギーコストなど)やプラットフォーム間のリソース可用性(ストレージや処理能力など)を明示的に考慮しない。
そこで本研究では,システムレベルで性能と資源制約の間の望ましいトレードオフを体系的に探究するための,利用主導で自動dnn圧縮フレームワークであるadadeepを提案する。
具体的には、AdaDeepは、与えられたDNNに対して、圧縮技術と対応する圧縮ハイパーパラメータの最も適切な組み合わせを自動的に選択する。
6つのデータセットと12台のデバイスに関する詳細な評価は、AdaDeepが18.6\times$レイテンシ削減、9.8\times$エネルギー効率の改善、37.3\times$DNNのストレージ削減を達成できることを示している。
さらに、AdaDeepは複数の新しい圧縮技術の組み合わせも明らかにしている。
関連論文リスト
- "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - Sparsifying Binary Networks [3.8350038566047426]
バイナリニューラルネットワーク(BNN)は、完全精度のディープニューラルネットワーク(DNN)と同等の精度で複雑なタスクを解く能力を示した。
最近の改善にもかかわらず、非常に限られたリソースを持つ特定のデバイスで不十分な、固定的で制限された圧縮要因に悩まされている。
本稿では,BNNの疎性を導入した新しいモデルとトレーニング手法であるスパースバイナリニューラルネットワーク(SBNN)と,ネットワークの重みをバイナライズする新しい量子化関数を提案する。
論文 参考訳(メタデータ) (2022-07-11T15:54:41Z) - Nonlinear Tensor Ring Network [39.89070144585793]
最先端のディープニューラルネットワーク(DNN)は、様々な現実世界のアプリケーションに広く適用されており、認知問題に対して大きなパフォーマンスを実現している。
冗長モデルをコンパクトなモデルに変換することで、圧縮技術はストレージとメモリ消費を減らすための実用的な解決策であるように見える。
本稿では,完全連結層と畳み込み層の両方を圧縮した非線形テンソルリングネットワーク(NTRN)を開発する。
論文 参考訳(メタデータ) (2021-11-12T02:02:55Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - AdaSpring: Context-adaptive and Runtime-evolutionary Deep Model
Compression for Mobile Applications [15.134752032646231]
本稿では,文脈適応型かつ自己進化型DNN圧縮フレームワークであるAdaSpringを紹介する。
実行時適応圧縮をオンラインでローカルに行うことができる。
実験の結果、AdaSpringは最大で3.1倍の遅延低減、DNNの4.2倍のエネルギー効率向上を実現している。
論文 参考訳(メタデータ) (2021-01-28T03:30:04Z) - A Survey on Deep Neural Network Compression: Challenges, Overview, and
Solutions [18.095948566754874]
Deep Neural Network(DNN)は、自動機能抽出機能により、前例のないパフォーマンスを実現している。
本稿では,DNNモデルの圧縮に関する既存の文献を概説する。
我々は,既存の手法を,DNNモデルを圧縮する機構に基づいて,ネットワークプルーニング,スパース表現,ビット精度,知識蒸留,雑多な5つのカテゴリに分割する。
論文 参考訳(メタデータ) (2020-10-05T13:12:46Z) - GAN Slimming: All-in-One GAN Compression by A Unified Optimization
Framework [94.26938614206689]
本稿では,GANスライミング(GAN Slimming)と呼ばれる,GAN圧縮のための複数の圧縮手段を組み合わせた最初の統一最適化フレームワークを提案する。
我々はGSを用いて、最先端のトランスファーネットワークであるCartoonGANを最大47倍圧縮し、視覚的品質を最小限に抑える。
論文 参考訳(メタデータ) (2020-08-25T14:39:42Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。