論文の概要: Idle is the New Sleep: Configuration-Aware Alternative to Powering Off FPGA-Based DL Accelerators During Inactivity
- arxiv url: http://arxiv.org/abs/2407.12027v1
- Date: Fri, 28 Jun 2024 11:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 11:20:27.684996
- Title: Idle is the New Sleep: Configuration-Aware Alternative to Powering Off FPGA-Based DL Accelerators During Inactivity
- Title(参考訳): Idleが新しいスリープ:FPGAベースのDLアクセラレータを非アクティブに駆動する代替設定対応
- Authors: Chao Qian, Christopher Cichiwskyj, Tianheng Ling, Gregor Schiele,
- Abstract要約: FPGA構成フェーズのオーバーヘッドを最小限に抑えるために,革新的な最適化を導入する。
設定パラメータを正確に調整することで、構成エネルギーを40.13倍に削減した。
我々のアイドルウェイティング戦略は499.06msまでの要求期間で従来のオンオフ戦略より優れていた。
- 参考スコア(独自算出の注目度): 18.15754187896287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving Internet of Things (IoT) domain, we concentrate on enhancing energy efficiency in Deep Learning accelerators on FPGA-based heterogeneous platforms, aligning with the principles of sustainable computing. Instead of focusing on the inference phase, we introduce innovative optimizations to minimize the overhead of the FPGA configuration phase. By fine-tuning configuration parameters correctly, we achieved a 40.13-fold reduction in configuration energy. Moreover, augmented with power-saving methods, our Idle-Waiting strategy outperformed the traditional On-Off strategy in duty-cycle mode for request periods up to 499.06 ms. Specifically, at a 40 ms request period within a 4147 J energy budget, this strategy extends the system lifetime to approximately 12.39x that of the On-Off strategy. Empirically validated through hardware measurements and simulations, these optimizations provide valuable insights and practical methods for achieving energy-efficient and sustainable deployments in IoT.
- Abstract(参考訳): 急速に進化するIoT(Internet of Things)領域では,FPGAベースのヘテロジニアスプラットフォーム上でのDeep Learningアクセラレータのエネルギー効率向上に重点を置いて,持続可能なコンピューティングの原則に準拠しています。
推論フェーズではなく、FPGA設定フェーズのオーバーヘッドを最小限に抑えるために、革新的な最適化を導入する。
設定パラメータを正確に調整することで、構成エネルギーを40.13倍に削減した。
さらに、省電力化により、従来のオンオフ方式を499.06msまでの要求期間で上回り、特に4147Jのエネルギー予算内で40msの要求期間において、オンオフ方式の約12.39倍までシステム寿命を延長した。
ハードウェアの測定とシミュレーションを通じて実証的に検証されたこれらの最適化は、IoTにおけるエネルギー効率と持続可能なデプロイメントを実現するための貴重な洞察と実践的な方法を提供する。
関連論文リスト
- Active RIS-Assisted URLLC NOMA-Based 5G Network with FBL under Jamming Attacks [5.715528540446773]
有限ブロック長(FBL)条件下でのURLLC(Ultra-Reliable Low Communication)ネットワークにおける攻撃を妨害する課題に対処する。
エネルギー効率を高めるために, RIS (Re Reliable Intelligent Surfaces) を有効成分とする革新的なアプローチを導入する。
以上の結果から,RIS成分の数が4から400に増加することにより,SJNR比が13.64%向上することが示唆された。
論文 参考訳(メタデータ) (2025-01-22T21:31:21Z) - HEPPO: Hardware-Efficient Proximal Policy Optimization -- A Universal Pipelined Architecture for Generalized Advantage Estimation [0.0]
HEPPOはFPGAベースのアクセラレーターで、プロキシポリシー最適化における一般化アドバンテージ推定の段階を最適化するために設計された。
鍵となる革新は、動的報酬標準化と値のブロック標準化を組み合わせた戦略的標準化技術であり、8ビット均一量子化が続く。
私たちのシングルチップソリューションは通信遅延とスループットのボトルネックを最小限にし、PPOトレーニングの効率を大幅に向上します。
論文 参考訳(メタデータ) (2025-01-22T08:18:56Z) - Energy Optimization of Multi-task DNN Inference in MEC-assisted XR Devices: A Lyapunov-Guided Reinforcement Learning Approach [15.895540097995479]
仮想と現実世界を融合した拡張現実(XR)は、未来のネットワークの重要な応用である。
我々は、マルチタスク推論のための分散キューモデルを開発し、リソース競合問題とキュー結合の問題に対処した。
我々は、XR機器の消費電力を最小限に抑えるために、リアプノフ誘導近似最適化アルゴリズム(LyaPPO)を考案した。
論文 参考訳(メタデータ) (2025-01-05T15:07:41Z) - Revisiting DNN Training for Intermittently-Powered Energy-Harvesting Micro-Computers [0.6721767679705013]
本研究では,エネルギー制約環境下でのディープニューラルネットワークに適した新しいトレーニング手法を紹介し,評価する。
本稿では,デバイスアーキテクチャとエネルギー可用性の変動性の両方に適応する動的ドロップアウト手法を提案する。
予備的な結果は、この戦略が5%未満の計算量を持つ最先端技術と比較して6~22%の精度向上をもたらすことを示している。
論文 参考訳(メタデータ) (2024-08-25T01:13:00Z) - FADAS: Towards Federated Adaptive Asynchronous Optimization [56.09666452175333]
フェデレートラーニング(FL)は、プライバシ保護機械学習のトレーニングパラダイムとして広く採用されている。
本稿では、非同期更新を適応的フェデレーション最適化と証明可能な保証に組み込む新しい手法であるFADASについて紹介する。
提案アルゴリズムの収束率を厳格に確立し,FADASが他の非同期FLベースラインよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-07-25T20:02:57Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Design optimization for high-performance computing using FPGA [0.0]
我々は、CIFARでトレーニングされたResNet20を使用して、Tensil AIのオープンソース推論アクセラレーターを最大性能に最適化する。
CIFARテストデータセットを実行すると、元の32ビット浮動小数点から丸めると、ほとんど精度が低下する。
提案した加速器は、100MHzで5.21Wのオンチップ消費電力を持つ21.12ギガ/秒(GOP/s)のスループットを実現する。
論文 参考訳(メタデータ) (2023-04-24T22:20:42Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。