論文の概要: The Case for Learning Application Behavior to Improve Hardware Energy
Efficiency
- arxiv url: http://arxiv.org/abs/2004.13074v2
- Date: Mon, 23 Nov 2020 20:12:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 06:04:50.134611
- Title: The Case for Learning Application Behavior to Improve Hardware Energy
Efficiency
- Title(参考訳): ハードウェアエネルギー効率向上のためのアプリケーション動作の学習事例
- Authors: Kevin Weston, Vahid Jafanza, Arnav Kansal, Abhishek Taur, Mohamed
Zahran, Abdullah Muzahid
- Abstract要約: 得られた知識をハードウェア構成のチューニングに利用することを提案する。
提案手法はFOECASTERと呼ばれ、ディープラーニングモデルを用いて、ハードウェアリソースの構成がアプリケーションの特定の動作に最適なエネルギー効率を提供するかを学習する。
この結果から,ForECASTERは全リソースに設定されたベースライン上で最大18.4%のシステム電力を節約できることがわかった。
- 参考スコア(独自算出の注目度): 2.4425948078034847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer applications are continuously evolving. However, significant
knowledge can be harvested from a set of applications and applied in the
context of unknown applications. In this paper, we propose to use the harvested
knowledge to tune hardware configurations. The goal of such tuning is to
maximize hardware efficiency (i.e., maximize an applications performance while
minimizing the energy consumption). Our proposed approach, called FORECASTER,
uses a deep learning model to learn what configuration of hardware resources
provides the optimal energy efficiency for a certain behavior of an
application. During the execution of an unseen application, the model uses the
learned knowledge to reconfigure hardware resources in order to maximize energy
efficiency. We have provided a detailed design and implementation of FORECASTER
and compared its performance against a prior state-of-the-art hardware
reconfiguration approach. Our results show that FORECASTER can save as much as
18.4% system power over the baseline set up with all resources. On average,
FORECASTER saves 16% system power over the baseline setup while sacrificing
less than 0.01% of overall performance. Compared to the prior scheme,
FORECASTER increases power savings by 7%.
- Abstract(参考訳): コンピュータアプリケーションは継続的に進化している。
しかし、一連のアプリケーションから重要な知識を収集し、未知のアプリケーションのコンテキストに適用することができる。
本稿では,抽出した知識をハードウェア構成のチューニングに用いることを提案する。
このようなチューニングの目標は、ハードウェアの効率を最大化すること(エネルギー消費を最小限に抑えながらアプリケーションの性能を最大化すること)である。
提案手法はFOECASTERと呼ばれ、ディープラーニングモデルを用いて、ハードウェアリソースの構成がアプリケーションの特定の動作に最適なエネルギー効率を提供するかを学習する。
目に見えないアプリケーションの実行中、モデルは学習した知識を使ってハードウェアリソースを再設定し、エネルギー効率を最大化する。
我々はFOECASTERの詳細な設計と実装を行い、その性能を従来のハードウェア再構成手法と比較した。
この結果から,ForECASTERは全リソースに設定されたベースライン上で最大18.4%のシステム電力を節約できることがわかった。
FORECASTERはベースライン設定で16%のシステム電力を節約し、全体のパフォーマンスの0.01%を犠牲にしている。
以前の方式と比較して、FOECASTERは電力節約率を7%向上させる。
関連論文リスト
- Green AI: A Preliminary Empirical Study on Energy Consumption in DL
Models Across Different Runtime Infrastructures [56.200335252600354]
トレーニング済みのモデルを、ネイティブな開発環境とは異なる環境にデプロイするのは、一般的なプラクティスです。
これにより、インフラを含むONNXや標準フォーマットとして機能するONNXなどの交換フォーマットが導入された。
論文 参考訳(メタデータ) (2024-02-21T09:18:44Z) - EASRec: Elastic Architecture Search for Efficient Long-term Sequential
Recommender Systems [82.76483989905961]
現在のSRS(Sequential Recommender Systems)は、計算とリソースの非効率に悩まされている。
我々は、効率的な長期シーケンスレコメンダシステム(EASRec)のための弾性アーキテクチャー探索を開発する。
EASRecは、入力データバッチから履歴情報を活用するデータ認識ゲートを導入し、レコメンデーションネットワークの性能を改善する。
論文 参考訳(メタデータ) (2024-02-01T07:22:52Z) - A Reinforcement Learning Approach for Performance-aware Reduction in
Power Consumption of Data Center Compute Nodes [0.46040036610482665]
我々はReinforcement Learningを使用して、クラウド計算ノード上での電力供給ポリシーを設計する。
実ハードウェア上でトレーニングされたエージェントが、消費電力とアプリケーションパフォーマンスのバランスをとることで、どのように行動を起こすかを示す。
論文 参考訳(メタデータ) (2023-08-15T23:25:52Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - FELARE: Fair Scheduling of Machine Learning Applications on
Heterogeneous Edge Systems [5.165692107696155]
エッジコンピューティングは、レイテンシに敏感な機械学習(ML)アプリケーションの同時実行と継続的実行を通じて、スマートIoTベースのシステムを実現する。
エネルギー制約を考慮しつつ、リアルタイムタスク完了率を向上させるリソース割当ソリューションを検討、分析する。
作業完了率の8.9%,省エネ率の12.6%はエッジシステムに大きなオーバーヘッドを伴わずに改善した。
論文 参考訳(メタデータ) (2022-05-31T19:19:40Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Intelligent colocation of HPC workloads [0.0]
多くのHPCアプリケーションは、共有キャッシュ、命令実行ユニット、I/O、メモリ帯域幅のボトルネックに苦しんでいる。
開発者やランタイムシステムにとって、すべての重要なリソースが単一のアプリケーションによって完全に悪用されることを保証するのは難しいため、魅力的なテクニックは、複数のアプリケーションを同じサーバに配置することです。
まず,ハードウェアの性能カウンタに基づいて,コロケーションされたアプリケーションの性能劣化をモデル化することにより,サーバ効率を向上できることを示す。
論文 参考訳(メタデータ) (2021-03-16T12:35:35Z) - SmartDeal: Re-Modeling Deep Network Weights for Efficient Inference and
Training [82.35376405568975]
ディープニューラルネットワーク(DNN)は重いパラメータ化を伴い、ストレージ用の外部動的ランダムアクセスメモリ(DRAM)につながります。
We present SmartDeal (SD), a algorithm framework to trade high-cost memory storage/ access for lower-cost compute。
SDは貯蔵および訓練エネルギーの10.56xそして4.48x減少、最先端の訓練のベースラインと比較される無視可能な正確さの損失をもたらすことを示します。
論文 参考訳(メタデータ) (2021-01-04T18:54:07Z) - Intelligent Resource Allocation in Dense LoRa Networks using Deep
Reinforcement Learning [5.035252201462008]
LoRaDRLのマルチチャネル方式を提案する。
その結果,提案アルゴリズムは長距離広帯域ネットワーク (LoRaWAN) のパケット配信率 (PDR) を有意に改善するだけでなく,
また,LoRaDRLの出力により最先端技術の性能が向上し,PDRでは500%以上の改善が得られた。
論文 参考訳(メタデータ) (2020-12-22T07:41:47Z) - AVAC: A Machine Learning based Adaptive RRAM Variability-Aware
Controller for Edge Devices [3.7346292069282643]
本稿ではAVAC(Adaptive RRAM Variability-Aware Controller)を提案する。
AVACにより、Edgeデバイスは異なるアプリケーションとそのステージに適応し、パフォーマンスを改善し、エネルギー消費を減らすことができる。
論文 参考訳(メタデータ) (2020-05-06T19:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。