論文の概要: Joint Optimization of Memory Frequency, Computing Frequency, Transmission Power and Task Offloading for Energy-efficient DNN Inference
- arxiv url: http://arxiv.org/abs/2509.17970v1
- Date: Mon, 22 Sep 2025 16:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.495566
- Title: Joint Optimization of Memory Frequency, Computing Frequency, Transmission Power and Task Offloading for Energy-efficient DNN Inference
- Title(参考訳): 省エネルギーDNN推論のためのメモリ周波数, 計算周波数, 送信電力, タスクオフロードの同時最適化
- Authors: Yunchu Han, Zhaojun Nan, Sheng Zhou, Zhisheng Niu,
- Abstract要約: リソース制約のあるデバイスでは、高いレイテンシとエネルギーオーバーヘッドは避けられない。
この課題に対処するため、ほとんどの研究者は動的電圧と周波数スケーリング(DVFS)技術に焦点を当てている。
本稿ではまず,結合記憶周波数と計算周波数のスケーリングが推定時間とエネルギー消費に与える影響について検討する。
- 参考スコア(独自算出の注目度): 9.303797341103534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have been widely applied in diverse applications, but the problems of high latency and energy overhead are inevitable on resource-constrained devices. To address this challenge, most researchers focus on the dynamic voltage and frequency scaling (DVFS) technique to balance the latency and energy consumption by changing the computing frequency of processors. However, the adjustment of memory frequency is usually ignored and not fully utilized to achieve efficient DNN inference, which also plays a significant role in the inference time and energy consumption. In this paper, we first investigate the impact of joint memory frequency and computing frequency scaling on the inference time and energy consumption with a model-based and data-driven method. Then by combining with the fitting parameters of different DNN models, we give a preliminary analysis for the proposed model to see the effects of adjusting memory frequency and computing frequency simultaneously. Finally, simulation results in local inference and cooperative inference cases further validate the effectiveness of jointly scaling the memory frequency and computing frequency to reduce the energy consumption of devices.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多様なアプリケーションに広く応用されているが、リソース制約のあるデバイスでは、高いレイテンシとエネルギーオーバーヘッドの問題は避けられない。
この課題に対処するため、ほとんどの研究者は、プロセッサの計算周波数を変化させることで、レイテンシとエネルギー消費のバランスをとるために、動的電圧と周波数スケーリング(DVFS)技術に焦点を当てている。
しかし、メモリ周波数の調整は通常無視され、効率的なDNN推論を実現するために完全には利用されない。
本稿では,モデルベースおよびデータ駆動方式を用いて,結合記憶周波数と計算周波数のスケーリングが推定時間とエネルギー消費に与える影響について検討する。
次に、異なるDNNモデルの適合パラメータと組み合わせることで、提案モデルに対する予備解析を行い、メモリ周波数と計算周波数を同時に調整する効果を検証した。
最後に、局所推論および協調推論のシミュレーション結果により、デバイスのエネルギー消費を減らすために、メモリ周波数と計算周波数を共同でスケーリングするの有効性が検証された。
関連論文リスト
- SPJFNet: Self-Mining Prior-Guided Joint Frequency Enhancement for Ultra-Efficient Dark Image Restoration [3.2735437407166414]
現在の暗黒画像復元法は、深刻な効率のボトルネックに悩まされている。
本稿では,SPJFNetを用いた自己マイニング事前誘導型結合周波数拡張ネットワークを提案する。
論文 参考訳(メタデータ) (2025-08-06T03:06:29Z) - Neuromorphic Wireless Split Computing with Resonate-and-Fire Neurons [69.73249913506042]
本稿では、共振器(RF)ニューロンを用いて時間領域信号を直接処理する無線スプリットコンピューティングアーキテクチャについて検討する。
可変周波数で共鳴することにより、RFニューロンは低スパイク活性を維持しながら時間局在スペクトル特徴を抽出する。
実験の結果,提案したRF-SNNアーキテクチャは従来のLIF-SNNやANNと同等の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2025-06-24T21:14:59Z) - Optimization of Layer Skipping and Frequency Scaling for Convolutional Neural Networks under Latency Constraint [6.6947001137138455]
本稿では,PLS(Proportional Layer Skipping)に関わるアプローチを提案し,周波数スケーリング(FS)を調整する。
PLSはネットワーク層を選択的にバイパスすることで計算複雑性を減らし、一方レイテンシ制約下でのエネルギー使用を最適化するためにプロセッサの周波数を周波数スケーリングする。
CIFAR-10データセットを用いたResNet-152の実験では、計算要求とエネルギー消費が最小限の精度で大幅に削減された。
論文 参考訳(メタデータ) (2025-03-31T12:40:11Z) - Neuromorphic Split Computing with Wake-Up Radios: Architecture and Design via Digital Twinning [97.99077847606624]
本研究は,遠隔・無線接続型NPUからなる分割計算機システムに,覚醒無線機構を組み込んだ新しいアーキテクチャを提案する。
覚醒無線に基づくニューロモルフィックスプリットコンピューティングシステムの設計における重要な課題は、検知、覚醒信号検出、意思決定のためのしきい値の選択である。
論文 参考訳(メタデータ) (2024-04-02T10:19:04Z) - Low-Frequency Load Identification using CNN-BiLSTM Attention Mechanism [0.0]
非侵入負荷モニタリング(Non-Inrusive Load Monitoring, NILM)は、効率的な電力消費管理のための確立された技術である。
本稿では,畳み込みニューラルネットワーク(CNN)と双方向長短期記憶(BILSTM)を組み合わせたハイブリッド学習手法を提案する。
CNN-BILSTMモデルは、時間的(時間的)と空間的(位置的)の両方の特徴を抽出し、アプライアンスレベルでのエネルギー消費パターンを正確に識別することができる。
論文 参考訳(メタデータ) (2023-11-14T21:02:27Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Compute and memory efficient universal sound source separation [23.152611264259225]
汎用オーディオソース分離のための効率的なニューラルネットワークアーキテクチャのファミリーを提供します。
この畳み込みネットワークのバックボーン構造は、SuDoRM-RF(Sccessive DOwnsampling and Resampling of Multi-Resolution Features)である。
実験の結果,SuDoRM-RFモデルは相容れない性能を示し,またいくつかの最先端ベンチマークを上回る性能を示した。
論文 参考訳(メタデータ) (2021-03-03T19:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。