論文の概要: EDCompress: Energy-Aware Model Compression for Dataflows
- arxiv url: http://arxiv.org/abs/2006.04588v2
- Date: Sat, 11 Jul 2020 06:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:42:11.897443
- Title: EDCompress: Energy-Aware Model Compression for Dataflows
- Title(参考訳): edcompress: データフローのためのエネルギアウェアモデル圧縮
- Authors: Zhehui Wang, Tao Luo, Joey Tianyi Zhou, Rick Siow Mong Goh
- Abstract要約: 各種データフローに対するエネルギーを考慮したモデル圧縮手法であるEDCompressを提案する。
様々なエッジデバイスのエネルギー消費を、異なるデータフロータイプで効果的に削減することができる。
実験の結果、EDCompressはVGG-16、MobileNet、LeNet-5ネットワークで20X、17X、37Xのエネルギー効率を改善することができた。
- 参考スコア(独自算出の注目度): 38.93186342851706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge devices demand low energy consumption, cost and small form factor. To
efficiently deploy convolutional neural network (CNN) models on edge device,
energy-aware model compression becomes extremely important. However, existing
work did not study this problem well because the lack of considering the
diversity of dataflow types in hardware architectures. In this paper, we
propose EDCompress, an Energy-aware model compression method for various
Dataflows. It can effectively reduce the energy consumption of various edge
devices, with different dataflow types. Considering the very nature of model
compression procedures, we recast the optimization process to a multi-step
problem, and solve it by reinforcement learning algorithms. Experiments show
that EDCompress could improve 20X, 17X, 37X energy efficiency in VGG-16,
MobileNet, LeNet-5 networks, respectively, with negligible loss of accuracy.
EDCompress could also find the optimal dataflow type for specific neural
networks in terms of energy consumption, which can guide the deployment of CNN
models on hardware systems.
- Abstract(参考訳): エッジデバイスは低エネルギー消費、コスト、小型フォームファクターを必要とする。
エッジデバイスに畳み込みニューラルネットワーク(CNN)モデルを効率よくデプロイするには,エネルギーを考慮したモデル圧縮が極めて重要である。
しかし、ハードウェアアーキテクチャにおけるデータフロータイプの多様性を考慮しないため、既存の研究はこの問題を十分に研究していなかった。
本稿では,各種データフローのエネルギーを考慮したモデル圧縮手法であるEDCompressを提案する。
様々なエッジデバイスのエネルギー消費を、異なるデータフロータイプで効果的に削減することができる。
モデル圧縮プロシージャの性質を考慮し、最適化プロセスを多段階問題に再キャストし、強化学習アルゴリズムを用いて解決する。
実験の結果、EDCompressはVGG-16、MobileNet、LeNet-5ネットワークでそれぞれ20X、17X、37Xのエネルギー効率を向上でき、精度が低下することが示された。
edcompressは、ハードウェアシステムへのcnnモデルの配置を導くエネルギー消費の観点から、特定のニューラルネットワークのための最適なデータフロータイプを見つけることもできる。
関連論文リスト
- Shavette: Low Power Neural Network Acceleration via Algorithm-level Error Detection and Undervolting [0.0]
本稿では,Deep Neural Network(DNN)アクセラレータの,単なるソフトウェア修正による低電圧動作を実現するための簡単なアプローチを紹介する。
18%から25%の省エネ効果を示したが,精度の低下やスループットの低下は認められなかった。
論文 参考訳(メタデータ) (2024-10-17T10:29:15Z) - SpikeBottleNet: Spike-Driven Feature Compression Architecture for Edge-Cloud Co-Inference [0.86325068644655]
エッジクラウドコ推論システムのための新しいアーキテクチャであるSpikeBottleNetを提案する。
SpikeBottleNetはスパイクニューロンモデルを統合し、エッジデバイスのエネルギー消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-10-11T09:59:21Z) - DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - HASS: Hardware-Aware Sparsity Search for Dataflow DNN Accelerator [47.66463010685586]
本稿では,ソフトウェアとハードウェアの共同最適化を用いて,非構造的ウェイトとデータフローアクセラレーターの疎結合性を利用した新しい手法を提案する。
我々は既存のスパース設計と比較して1.3$times$から4.2$times$までの効率改善を実現している。
論文 参考訳(メタデータ) (2024-06-05T09:25:18Z) - Dynamic Semantic Compression for CNN Inference in Multi-access Edge
Computing: A Graph Reinforcement Learning-based Autoencoder [82.8833476520429]
部分オフロードにおける効果的な意味抽出と圧縮のための新しい意味圧縮手法であるオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
セマンティックエンコーダでは、CNNのチャネルアテンション機構に基づく特徴圧縮モジュールを導入し、最も情報性の高い特徴を選択して中間データを圧縮する。
セマンティックデコーダでは、受信した圧縮データから学習して中間データを再構築し、精度を向上させる軽量デコーダを設計する。
論文 参考訳(メタデータ) (2024-01-19T15:19:47Z) - Convolutional Neural Network Compression via Dynamic Parameter Rank
Pruning [4.7027290803102675]
動的パラメータランクプルーニングによるCNN圧縮の効率的なトレーニング手法を提案する。
提案手法は, 分類性能の維持や向上を図りながら, かなりの蓄えを得られることを示す。
論文 参考訳(メタデータ) (2024-01-15T23:52:35Z) - EcoFlow: Efficient Convolutional Dataflows for Low-Power Neural Network
Accelerators [12.223778147172107]
拡張畳み込み畳み込みは現代の畳み込みニューラルネットワーク(CNN)で広く使われている
これらのカーネルは、その高いメモリ強度、エクサスケールな計算要求、大きなエネルギー消費のために、現在の計算システムを強調している。
拡張および変換された畳み込みのための新しいデータフローとマッピングアルゴリズムであるEcoFlowを提案する。
論文 参考訳(メタデータ) (2022-02-04T18:48:36Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。