論文の概要: An Energy-Aware Online Learning Framework for Resource Management in
Heterogeneous Platforms
- arxiv url: http://arxiv.org/abs/2003.09526v1
- Date: Fri, 20 Mar 2020 22:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 23:13:28.800978
- Title: An Energy-Aware Online Learning Framework for Resource Management in
Heterogeneous Platforms
- Title(参考訳): 異種プラットフォームにおける資源管理のためのエネルギアウェアオンライン学習フレームワーク
- Authors: Sumit K. Mandal, Ganapati Bhat, Janardhan Rao Doppa, Partha Pratim
Pande, Umit Y. Ogras
- Abstract要約: モバイルプラットフォームは、高速応答時間と最小エネルギー消費の矛盾した要件を満たす必要がある。
このニーズに対処するために、System-on-chipsは、アクティブコアの数や電圧/周波数レベルなど、さまざまな制御ノブを提供する。
オフラインで設計された制御ポリシーは、設計時に多くの潜在的な新しいアプリケーションが未知であるため、最適ではない。
- 参考スコア(独自算出の注目度): 16.94738988958929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile platforms must satisfy the contradictory requirements of fast response
time and minimum energy consumption as a function of dynamically changing
applications. To address this need, system-on-chips (SoC) that are at the heart
of these devices provide a variety of control knobs, such as the number of
active cores and their voltage/frequency levels. Controlling these knobs
optimally at runtime is challenging for two reasons. First, the large
configuration space prohibits exhaustive solutions. Second, control policies
designed offline are at best sub-optimal since many potential new applications
are unknown at design-time. We address these challenges by proposing an online
imitation learning approach. Our key idea is to construct an offline policy and
adapt it online to new applications to optimize a given metric (e.g., energy).
The proposed methodology leverages the supervision enabled by power-performance
models learned at runtime. We demonstrate its effectiveness on a commercial
mobile platform with 16 diverse benchmarks. Our approach successfully adapts
the control policy to an unknown application after executing less than 25% of
its instructions.
- Abstract(参考訳): 動的に変化するアプリケーションの機能として、モバイルプラットフォームは、迅速な応答時間と最小エネルギー消費の矛盾した要求を満たす必要がある。
このニーズに対処するために、これらのデバイスの中心にあるシステムオンチップ(SoC)は、アクティブコアの数や電圧/周波数レベルなど、さまざまな制御ノブを提供する。
これらのノブを実行時に最適に制御することは2つの理由から難しい。
まず、大きな構成空間は、徹底的な解を禁止する。
第二に、オフラインで設計された制御ポリシーは、設計時に多くの潜在的な新しいアプリケーションが未知であるため、最適ではない。
オンラインの模倣学習アプローチを提案することで、これらの課題に対処する。
私たちの重要なアイデアは、オフラインポリシを構築し、それを新しいアプリケーションに適用して、所定のメトリック(エネルギーなど)を最適化することです。
提案手法は,実行時に学習したパワーパフォーマンスモデルによって実現された監視を活用する。
16種類のベンチマークによる商用モバイルプラットフォーム上での有効性を示す。
提案手法は,25%未満の命令を実行した後,制御ポリシを未知のアプリケーションに適用する。
関連論文リスト
- Optimizing Load Scheduling in Power Grids Using Reinforcement Learning and Markov Decision Processes [0.0]
本稿では,動的負荷スケジューリングの課題に対処する強化学習(RL)手法を提案する。
提案手法は実時間負荷スケジューリングのためのロバストでスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-23T09:16:22Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Policy Search for Model Predictive Control with Application to Agile
Drone Flight [56.24908013905407]
MPCのためのポリシ・フォー・モデル・予測制御フレームワークを提案する。
具体的には、パラメータ化コントローラとしてMPCを定式化し、パラメータ化の難しい決定変数を高レベルポリシーとして表現する。
シミュレーションと実環境の両方において,我々の制御器が堅牢かつリアルタイムに制御性能を発揮することを示す実験を行った。
論文 参考訳(メタデータ) (2021-12-07T17:39:24Z) - Towards Automatic Actor-Critic Solutions to Continuous Control [7.312692481631664]
本稿では,アクター批判アルゴリズムを新しいドメインにチューニングする進化的アプローチを提案する。
私たちの設計は、サンプル効率が高く、ベースラインアプローチよりも実用的な利点を提供します。
次に、計算と研究の最小限の労力で高性能なソリューションを見つけるために、新しい制御タスクに適用する。
論文 参考訳(メタデータ) (2021-06-16T16:18:20Z) - Enforcing Policy Feasibility Constraints through Differentiable
Projection for Energy Optimization [57.88118988775461]
本稿では,ニューラルポリシー内での凸操作制約を強制するために,PROF(Projected Feasibility)を提案する。
エネルギー効率の高い建築操作とインバータ制御の2つの応用についてPROFを実証する。
論文 参考訳(メタデータ) (2021-05-19T01:58:10Z) - Non-stationary Online Learning with Memory and Non-stochastic Control [71.14503310914799]
我々は,過去の決定に依拠する損失関数を許容するメモリを用いたオンライン凸最適化(OCO)の問題について検討する。
本稿では,非定常環境に対してロバストなアルゴリズムを設計するための性能指標として,動的ポリシーの後悔を紹介する。
我々は,時間的地平線,非定常度,メモリ長といった面で,最適な動的ポリシーの後悔を確実に享受するメモリ付きOCOの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T09:45:15Z) - MLComp: A Methodology for Machine Learning-based Performance Estimation
and Adaptive Selection of Pareto-Optimal Compiler Optimization Sequences [10.200899224740871]
組込みソフトウェア最適化のための新しい強化学習型ポリシー手法を提案する。
異なる機械学習モデルが自動的にテストされ、最適なものを選択する。
また、ターゲットとするプラットフォームやアプリケーションドメインに対して、フレームワークを効率的にトレーニングできることも示しています。
論文 参考訳(メタデータ) (2020-12-09T19:13:39Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - Scheduling and Power Control for Wireless Multicast Systems via Deep
Reinforcement Learning [33.737301955006345]
無線システムにおけるマルチキャストは、コンテンツ中心ネットワークにおけるユーザ要求の冗長性を利用する方法である。
電力制御と最適スケジューリングは、衰退中の無線マルチキャストネットワークの性能を著しく向上させることができる。
提案手法により, 大規模システムに対して, 電力制御ポリシを学習可能であることを示す。
論文 参考訳(メタデータ) (2020-09-27T15:59:44Z) - Online Adaptive Learning for Runtime Resource Management of
Heterogeneous SoCs [15.523246628432654]
本稿では、模倣学習(IL)と明示的非線形モデル予測制御(NMPC)の2つの近代的アプローチを用いたオンライン制御における予測モデルの使用について述べる。
16のベンチマークによる商用モバイルプラットフォームの評価は、ILアプローチが制御ポリシーを未知のアプリケーションに適用することに成功していることを示している。
明示的なNMPCは、最新のGPUサブシステムの多変数電力管理のための最先端のアルゴリズムと比較して25%の省エネを提供する。
論文 参考訳(メタデータ) (2020-08-22T01:39:32Z) - Learning High-Level Policies for Model Predictive Control [54.00297896763184]
Model Predictive Control (MPC)は、ロボット制御タスクに対する堅牢なソリューションを提供する。
ニューラルネットワークの高レベルポリシーを学習するための自己教師付き学習アルゴリズムを提案する。
提案手法は, 標準的なMPCでは困難な状況に対処できることを示す。
論文 参考訳(メタデータ) (2020-07-20T17:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。