論文の概要: EDCompress: Energy-Aware Model Compression for Dataflows
- arxiv url: http://arxiv.org/abs/2006.04588v2
- Date: Sat, 11 Jul 2020 06:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:42:11.897443
- Title: EDCompress: Energy-Aware Model Compression for Dataflows
- Title(参考訳): edcompress: データフローのためのエネルギアウェアモデル圧縮
- Authors: Zhehui Wang, Tao Luo, Joey Tianyi Zhou, Rick Siow Mong Goh
- Abstract要約: 各種データフローに対するエネルギーを考慮したモデル圧縮手法であるEDCompressを提案する。
様々なエッジデバイスのエネルギー消費を、異なるデータフロータイプで効果的に削減することができる。
実験の結果、EDCompressはVGG-16、MobileNet、LeNet-5ネットワークで20X、17X、37Xのエネルギー効率を改善することができた。
- 参考スコア(独自算出の注目度): 38.93186342851706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge devices demand low energy consumption, cost and small form factor. To
efficiently deploy convolutional neural network (CNN) models on edge device,
energy-aware model compression becomes extremely important. However, existing
work did not study this problem well because the lack of considering the
diversity of dataflow types in hardware architectures. In this paper, we
propose EDCompress, an Energy-aware model compression method for various
Dataflows. It can effectively reduce the energy consumption of various edge
devices, with different dataflow types. Considering the very nature of model
compression procedures, we recast the optimization process to a multi-step
problem, and solve it by reinforcement learning algorithms. Experiments show
that EDCompress could improve 20X, 17X, 37X energy efficiency in VGG-16,
MobileNet, LeNet-5 networks, respectively, with negligible loss of accuracy.
EDCompress could also find the optimal dataflow type for specific neural
networks in terms of energy consumption, which can guide the deployment of CNN
models on hardware systems.
- Abstract(参考訳): エッジデバイスは低エネルギー消費、コスト、小型フォームファクターを必要とする。
エッジデバイスに畳み込みニューラルネットワーク(CNN)モデルを効率よくデプロイするには,エネルギーを考慮したモデル圧縮が極めて重要である。
しかし、ハードウェアアーキテクチャにおけるデータフロータイプの多様性を考慮しないため、既存の研究はこの問題を十分に研究していなかった。
本稿では,各種データフローのエネルギーを考慮したモデル圧縮手法であるEDCompressを提案する。
様々なエッジデバイスのエネルギー消費を、異なるデータフロータイプで効果的に削減することができる。
モデル圧縮プロシージャの性質を考慮し、最適化プロセスを多段階問題に再キャストし、強化学習アルゴリズムを用いて解決する。
実験の結果、EDCompressはVGG-16、MobileNet、LeNet-5ネットワークでそれぞれ20X、17X、37Xのエネルギー効率を向上でき、精度が低下することが示された。
edcompressは、ハードウェアシステムへのcnnモデルの配置を導くエネルギー消費の観点から、特定のニューラルネットワークのための最適なデータフロータイプを見つけることもできる。
関連論文リスト
- Dynamic Semantic Compression for CNN Inference in Multi-access Edge
Computing: A Graph Reinforcement Learning-based Autoencoder [82.8833476520429]
部分オフロードにおける効果的な意味抽出と圧縮のための新しい意味圧縮手法であるオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
セマンティックエンコーダでは、CNNのチャネルアテンション機構に基づく特徴圧縮モジュールを導入し、最も情報性の高い特徴を選択して中間データを圧縮する。
セマンティックデコーダでは、受信した圧縮データから学習して中間データを再構築し、精度を向上させる軽量デコーダを設計する。
論文 参考訳(メタデータ) (2024-01-19T15:19:47Z) - Convolutional Neural Network Compression via Dynamic Parameter Rank
Pruning [4.7027290803102675]
動的パラメータランクプルーニングによるCNN圧縮の効率的なトレーニング手法を提案する。
提案手法は, 分類性能の維持や向上を図りながら, かなりの蓄えを得られることを示す。
論文 参考訳(メタデータ) (2024-01-15T23:52:35Z) - A priori compression of convolutional neural networks for wave
simulators [0.0]
現在のニューラルネットワークの設計には数百万のパラメータが含まれており、メモリに制限のあるデバイスにそのような複雑なモデルをインストールすることは困難である。
本稿では,ニューラルネットワークのトレーニングに先立って,畳み込み層を圧縮したテンソル形式,先行処理を提案する。
提案手法は,訓練可能なパラメータが少なく,メモリフットプリントも少ない古典的畳み込み層として同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-04-11T04:18:59Z) - Multi-Scale Architectures Matter: On the Adversarial Robustness of
Flow-based Lossless Compression [16.109578069331135]
フローベースモデルは, 優れた確率密度推定と良好な推論速度により, 性能が向上する。
マルチスケールアーキテクチャは、浅い層から出力層へのショートカットを提供する。
マルチスケールアーキテクチャのフローは、コーディングの複雑さと圧縮効率の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-08-26T15:17:43Z) - EcoFlow: Efficient Convolutional Dataflows for Low-Power Neural Network
Accelerators [12.223778147172107]
拡張畳み込み畳み込みは現代の畳み込みニューラルネットワーク(CNN)で広く使われている
これらのカーネルは、その高いメモリ強度、エクサスケールな計算要求、大きなエネルギー消費のために、現在の計算システムを強調している。
拡張および変換された畳み込みのための新しいデータフローとマッピングアルゴリズムであるEcoFlowを提案する。
論文 参考訳(メタデータ) (2022-02-04T18:48:36Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Compact CNN Structure Learning by Knowledge Distillation [34.36242082055978]
知識蒸留とカスタマイズ可能なブロックワイズ最適化を活用し、軽量なCNN構造を学習するフレームワークを提案する。
提案手法は,予測精度の向上を図りながら,アートネットワーク圧縮の状態を再現する。
特に,すでにコンパクトなネットワークであるMobileNet_v2では,モデル圧縮が最大2倍,モデル圧縮が5.2倍向上する。
論文 参考訳(メタデータ) (2021-04-19T10:34:22Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Structured Sparsification with Joint Optimization of Group Convolution
and Channel Shuffle [117.95823660228537]
本稿では,効率的なネットワーク圧縮のための新しい構造空間分割法を提案する。
提案手法は, 畳み込み重みに対する構造的疎度を自動的に誘導する。
また,学習可能なチャネルシャッフル機構によるグループ間通信の問題にも対処する。
論文 参考訳(メタデータ) (2020-02-19T12:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。