論文の概要: ENOS: Energy-Aware Network Operator Search for Hybrid Digital and
Compute-in-Memory DNN Accelerators
- arxiv url: http://arxiv.org/abs/2104.05217v1
- Date: Mon, 12 Apr 2021 05:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 04:22:17.012247
- Title: ENOS: Energy-Aware Network Operator Search for Hybrid Digital and
Compute-in-Memory DNN Accelerators
- Title(参考訳): ENOS:ハイブリッドデジタルおよびコンピュートインメモリDNN加速器のためのエネルギー対応ネットワーク演算子探索
- Authors: Shamma Nasrin, Ahish Shylendra, Yuti Kadakia, Nick Iliev, Wilfred
Gomes, Theja Tulabandhula, and Amit Ranjan Trivedi
- Abstract要約: 本研究では、ディープニューラルネットワーク(DNN)アクセラレーターのエネルギー精度トレードオフに対処する、新しいEnergy-Aware Network Operator Search(ENOS)アプローチを提案する。
提案するenosフレームワークにより,推論演算子と計算モードの最適層分割により,所望のエネルギーと精度のバランスが達成できる。
- 参考スコア(独自算出の注目度): 1.8520017452993311
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This work proposes a novel Energy-Aware Network Operator Search (ENOS)
approach to address the energy-accuracy trade-offs of a deep neural network
(DNN) accelerator. In recent years, novel inference operators have been
proposed to improve the computational efficiency of a DNN. Augmenting the
operators, their corresponding novel computing modes have also been explored.
However, simplification of DNN operators invariably comes at the cost of lower
accuracy, especially on complex processing tasks. Our proposed ENOS framework
allows an optimal layer-wise integration of inference operators and computing
modes to achieve the desired balance of energy and accuracy. The search in ENOS
is formulated as a continuous optimization problem, solvable using typical
gradient descent methods, thereby scalable to larger DNNs with minimal increase
in training cost. We characterize ENOS under two settings. In the first
setting, for digital accelerators, we discuss ENOS on multiply-accumulate (MAC)
cores that can be reconfigured to different operators. ENOS training methods
with single and bi-level optimization objectives are discussed and compared. We
also discuss a sequential operator assignment strategy in ENOS that only learns
the assignment for one layer in one training step, enabling greater flexibility
in converging towards the optimal operator allocations. Furthermore, following
Bayesian principles, a sampling-based variational mode of ENOS is also
presented. ENOS is characterized on popular DNNs ShuffleNet and SqueezeNet on
CIFAR10 and CIFAR100.
- Abstract(参考訳): 本研究では、ディープニューラルネットワーク(DNN)アクセラレーターのエネルギー精度トレードオフに対処する、新しいEnergy-Aware Network Operator Search(ENOS)アプローチを提案する。
近年,DNNの計算効率を向上させるために新しい推論演算子が提案されている。
オペレーターを増強し、対応する新しいコンピューティングモードも検討されている。
しかし、DNN演算子の単純化は、特に複雑な処理タスクにおいて、低精度のコストが伴う。
提案するENOSフレームワークにより、推論演算子と計算モードを最適に階層的に統合し、所望のエネルギーと精度のバランスを実現する。
enosにおける探索は連続最適化問題として定式化され、典型的な勾配降下法を用いて解くことができ、トレーニングコストを最小にし、より大きなdnnに拡張できる。
ENOSを2つの設定で特徴付けます。
最初の設定では、デジタルアクセラレーターについて、異なるオペレーターに再設定できるマルチプライアキュムレート(mac)コアのenosについて論じる。
単段最適化と二段最適化を併用したENOS学習法について検討・比較を行った。
また、1つのトレーニングステップで1つのレイヤの割り当てのみを学ぶenosのシーケンシャルな演算子割当戦略についても検討し、最適なオペレータ割当に向けての収束の柔軟性を高める。
さらに、ベイズ原理に従って、ENOSのサンプリングに基づく変分モードも提示される。
ENOSは、CIFAR10とCIFAR100上の人気のあるDNNShuffleNetとSqueezeNetに特徴付けられる。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Training-free Conversion of Pretrained ANNs to SNNs for Low-Power and High-Performance Applications [23.502136316777058]
人工ニューラルネットワーク(ANN)の代替としてスパイキングニューラルネットワーク(SNN)が登場した
SNNの既存の教師付き学習アルゴリズムは、ANNのアルゴリズムよりもはるかに多くのメモリと時間を必要とする。
提案手法は,事前学習したANNモデルを,追加訓練を伴わずに,高性能なSNNに変換する。
論文 参考訳(メタデータ) (2024-09-05T09:14:44Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Towards Hyperparameter-Agnostic DNN Training via Dynamical System
Insights [4.513581513983453]
本稿では,ディープニューラルネットワーク(DNN),ECCO-DNNに特化した一階最適化手法を提案する。
本手法は, 最適変数軌道を動的システムとしてモデル化し, 軌道形状に基づいてステップサイズを適応的に選択する離散化アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-10-21T03:45:13Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Optimizing the Consumption of Spiking Neural Networks with Activity
Regularization [15.317534913990633]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、二元活性化を用いてエネルギーを節約し、スパイクしないときにエネルギーを消費しないバイオインスパイアされた技術の例である。
本研究では、ニューラルネットワークの活性化マップに疎結合を強制するための異なる手法を検討し、最適化されたDNNとSNNの効率に対する異なるトレーニング正規化器の効果を比較する。
論文 参考訳(メタデータ) (2022-04-04T13:19:47Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。