論文の概要: Layer-wise Weight Selection for Power-Efficient Neural Network Acceleration
- arxiv url: http://arxiv.org/abs/2511.17123v2
- Date: Mon, 24 Nov 2025 15:02:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 16:30:37.510595
- Title: Layer-wise Weight Selection for Power-Efficient Neural Network Acceleration
- Title(参考訳): 電力効率の良いニューラルネットワーク高速化のための層幅重み選択法
- Authors: Jiaxun Fang, Grace Li Zhang, Shaoyi Huang,
- Abstract要約: シストリックアレイ加速器は、乗算累積(MAC)単位に支配されるエネルギーでCNNを実行する。
本稿では,MACと層レベルのエネルギー特性を明示的に活用する,エネルギーを意識した層間圧縮フレームワークを提案する。
異なるCNNモデルの実験では、58.6%のエネルギー削減と2-3%の精度低下を示し、最先端のパワーアウェアベースラインを上回っている。
- 参考スコア(独自算出の注目度): 3.2135370553216496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Systolic array accelerators execute CNNs with energy dominated by the switching activity of multiply accumulate (MAC) units. Although prior work exploits weight dependent MAC power for compression, existing methods often use global activation models, coarse energy proxies, or layer-agnostic policies, which limits their effectiveness on real hardware. We propose an energy aware, layer-wise compression framework that explicitly leverages MAC and layer level energy characteristics. First, we build a layer-aware MAC energy model that combines per-layer activation statistics with an MSB-Hamming distance grouping of 22-bit partial sum transitions, and integrate it with a tile-level systolic mapping to estimate convolution-layer energy. On top of this model, we introduce an energy accuracy co-optimized weight selection algorithm within quantization aware training and an energy-prioritized layer-wise schedule that compresses high energy layers more aggressively under a global accuracy constraint. Experiments on different CNN models demonstrate up to 58.6\% energy reduction with 2-3\% accuracy drop, outperforming a state-of-the-art power-aware baseline.
- Abstract(参考訳): シストリックアレイ加速器は、乗算蓄積(MAC)ユニットのスイッチング活性に支配されるエネルギーでCNNを実行する。
従来の作業では、圧縮のために重み依存MACパワーを利用するが、既存の手法では、しばしばグローバルアクティベーションモデル、粗いエネルギープロキシ、層に依存しないポリシーを用いており、実際のハードウェアでの有効性を制限している。
本稿では,MACと層レベルのエネルギー特性を明示的に活用する,エネルギーを意識した層間圧縮フレームワークを提案する。
まず,22ビット部分和遷移からなるMSB-Hamming距離群と層間活性化統計量を組み合わせた層間MACエネルギーモデルを構築し,それをタイルレベルのシストリックマッピングと組み合わせて畳み込み層エネルギーを推定する。
本モデルでは、量子化学習におけるエネルギー精度の最適化による重み選択アルゴリズムと、大域的精度制約の下で高エネルギー層をより積極的に圧縮するエネルギー優先層ワイドスケジュールを導入する。
異なるCNNモデルの実験では、58.6\%のエネルギー削減と2-3\%の精度低下が示され、最先端のパワーアウェアベースラインを上回っている。
関連論文リスト
- Energy Scaling Laws for Diffusion Models: Quantifying Compute and Carbon Emissions in Image Generation [50.21021246855702]
本稿では,計算複雑性(FLOP)に基づく拡散モデルに対するGPUエネルギー消費予測のためのKaplanスケーリング法の適用法を提案する。
提案手法は, テキストエンコーディング, 反復的復号化, 復号化コンポーネントへの拡散モデル推論を分解し, 複数の推論ステップをまたいだ繰り返し実行により, 演算の復号化がエネルギー消費を支配しているという仮説を導いた。
この結果は拡散予測の計算バウンドの性質を検証し、持続可能なAIデプロイメント計画と炭素フットプリント推定の基礎を提供する。
論文 参考訳(メタデータ) (2025-11-21T08:12:47Z) - Energy-Efficient and Dequantization-Free Q-LLMs: A Spiking Neural Network Approach to Salient Value Mitigation [18.963480523099694]
スパイキングニューラルネットワーク(SNN)は、複雑なMACを時間蓄積(ACC)に置き換えることで、混合精度の記憶とエネルギー効率の計算を支援する
そこで我々はSpykeQuantを提案する。これは精度混合量子化を正常な値を持つアクティベーションに選択的に適用し、それらをバイナリスパイクカウントに再エンコードする。
実験の結果、SpikeQuantは、W4A4量子化の下では一貫してほぼFP16のパープレキシティを達成し、既存の方法に比べて最大4.6倍のエネルギーコストを削減した。
論文 参考訳(メタデータ) (2025-10-22T11:50:00Z) - Compression of Site-Specific Deep Neural Networks for Massive MIMO Precoding [4.8310710966636545]
本稿では,深層学習を用いたmMIMOプリコーダの計算エネルギー効率について検討する。
本稿では,混合精度量子化学習とニューラルアーキテクチャ探索を併用して,エネルギー使用量を削減するフレームワークを提案する。
この結果から,ニューラルネットワークの深部圧縮はWMMSEの35倍のエネルギー効率を持つプリコーダを同等の性能で生成することがわかった。
論文 参考訳(メタデータ) (2025-02-12T20:03:32Z) - Enhancing User Experience in On-Device Machine Learning with Gated Compression Layers [0.0]
オンデバイス機械学習(ODML)は強力なエッジアプリケーションを実現するが、リソース制約のあるデバイスにとって電力消費は依然として重要な課題である。
本研究は,パワーを保ちながらODMLモデル性能を向上させるため,GC(Gated Compression)層の利用に焦点を当てる。
GCレイヤは、ニューラルネットワーク内のニューロンの活性化を選択的にゲーティングし、非必要入力を効果的にフィルタリングすることで、データフローを動的に制御する。
論文 参考訳(メタデータ) (2024-05-02T21:18:06Z) - Ultra-low Precision Multiplication-free Training for Deep Neural
Networks [20.647925576138807]
訓練において、線形層はエネルギーを消費する全精度乗算の激しい使用のために最もエネルギーを消費する。
本稿では、FP32の乗算を全て置き換えるために、適応層スケールポット量子化(ALS-POTQ)法と乗算自由MAC(MF-MAC)法を提案する。
トレーニング方式では, 上記の手法はすべて余剰乗算を導入しないので, トレーニング中の線形層におけるエネルギー消費量の最大95.8%を削減できる。
論文 参考訳(メタデータ) (2023-02-28T10:05:45Z) - PhAST: Physics-Aware, Scalable, and Task-specific GNNs for Accelerated
Catalyst Design [102.9593507372373]
触媒材料は産業プロセスに関わる電気化学反応において重要な役割を担っている。
機械学習は、大量のデータから材料特性を効率的にモデル化する可能性を秘めている。
本稿では,ほとんどのアーキテクチャに適用可能なタスク固有のイノベーションを提案し,計算効率と精度の両立を図っている。
論文 参考訳(メタデータ) (2022-11-22T05:24:30Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。