論文の概要: GOSH: Task Scheduling Using Deep Surrogate Models in Fog Computing
Environments
- arxiv url: http://arxiv.org/abs/2112.08916v1
- Date: Thu, 16 Dec 2021 14:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 20:01:25.686413
- Title: GOSH: Task Scheduling Using Deep Surrogate Models in Fog Computing
Environments
- Title(参考訳): GOSH:フォグコンピューティング環境におけるディープサロゲートモデルを用いたタスクスケジューリング
- Authors: Shreshth Tuli, Giuliano Casale and Nicholas R. Jennings
- Abstract要約: 本稿では,新しいスケジューラGOSHを紹介する。
GOSHは2階勾配に基づく最適化アプローチを使用して、レイテンシの向上とイテレーション回数の削減を実現している。
エネルギー消費, 応答時間, SLA違反に関しては, それぞれ18, 27, 82%の大幅な改善が見られた。
- 参考スコア(独自算出の注目度): 12.215537834860699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, intelligent scheduling approaches using surrogate models have been
proposed to efficiently allocate volatile tasks in heterogeneous fog
environments. Advances like deterministic surrogate models, deep neural
networks (DNN) and gradient-based optimization allow low energy consumption and
response times to be reached. However, deterministic surrogate models, which
estimate objective values for optimization, do not consider the uncertainties
in the distribution of the Quality of Service (QoS) objective function that can
lead to high Service Level Agreement (SLA) violation rates. Moreover, the
brittle nature of DNN training and prevent such models from reaching minimal
energy or response times. To overcome these difficulties, we present a novel
scheduler: GOSH i.e. Gradient Based Optimization using Second Order derivatives
and Heteroscedastic Deep Surrogate Models. GOSH uses a second-order gradient
based optimization approach to obtain better QoS and reduce the number of
iterations to converge to a scheduling decision, subsequently lowering the
scheduling time. Instead of a vanilla DNN, GOSH uses a Natural Parameter
Network to approximate objective scores. Further, a Lower Confidence Bound
optimization approach allows GOSH to find an optimal trade-off between greedy
minimization of the mean latency and uncertainty reduction by employing
error-based exploration. Thus, GOSH and its co-simulation based extension
GOSH*, can adapt quickly and reach better objective scores than baseline
methods. We show that GOSH* reaches better objective scores than GOSH, but it
is suitable only for high resource availability settings, whereas GOSH is apt
for limited resource settings. Real system experiments for both GOSH and GOSH*
show significant improvements against the state-of-the-art in terms of energy
consumption, response time and SLA violations by up to 18, 27 and 82 percent,
respectively.
- Abstract(参考訳): 近年,不均一フォグ環境での揮発性タスクを効率的に割り当てるために,サロゲートモデルを用いたインテリジェントスケジューリング手法が提案されている。
決定論的サロゲートモデル、ディープニューラルネットワーク(DNN)、勾配に基づく最適化などの進歩により、低エネルギー消費と応答時間に到達することができる。
しかし、最適化の客観的値を見積もる決定論的代理モデルは、高いサービスレベル合意(SLA)違反率につながる可能性のあるQoS(Quality of Service)目標関数の分布の不確実性を考慮していない。
さらに、DNNトレーニングの脆さの性質は、そのようなモデルが最小エネルギーや応答時間に達するのを防ぐ。
これらの課題を克服するために,二階微分とヘテロシドスティック深層サロゲートモデルを用いた勾配に基づく最適化という新しいスケジューラを提案する。
GOSHは2階勾配に基づく最適化手法を用いてより優れたQoSを求め、スケジューリング決定に収束するイテレーション数を削減し、スケジューリング時間を短縮する。
バニラDNNの代わりに、GOSHはNatural Parameter Networkを使用して客観的スコアを近似する。
さらに、信頼度境界最適化手法により、GOSHは、平均遅延のグリーディ最小化とエラーベースの探索による不確実性低減のトレードオフを最適に見つけることができる。
したがって、goshとその共シミュレーションベースの拡張gosh*は、ベースラインメソッドよりも迅速に適応し、優れた客観的スコアに達することができる。
GOSH*はGOSHよりも客観的スコアがよいことを示すが、GOSHは限られたリソース設定に適応するのに対して、高可用性設定にのみ適している。
GOSH*とGOSH*の実際のシステム実験では,エネルギー消費,応答時間,SLA違反に関して,それぞれ18,27,82パーセントの大幅な改善が見られた。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Hierarchical Preference Optimization: Learning to achieve goals via feasible subgoals prediction [71.81851971324187]
本研究は階層型強化学習(HRL)の新しいアプローチである階層型優先度最適化(HPO)を導入する。
HPOは、複雑なロボット制御タスクを解く際に、非定常性と非実用的なサブゴール生成の問題に対処する。
挑戦的なロボットナビゲーションと操作タスクの実験はHPOの素晴らしいパフォーマンスを示しており、ベースラインよりも最大35%改善されている。
論文 参考訳(メタデータ) (2024-11-01T04:58:40Z) - Fine-Tuning Adaptive Stochastic Optimizers: Determining the Optimal Hyperparameter $ε$ via Gradient Magnitude Histogram Analysis [0.7366405857677226]
我々は、損失の大きさの経験的確率密度関数に基づく新しい枠組みを導入し、これを「緩やかな等級ヒストグラム」と呼ぶ。
そこで本稿では, 最適安全のための精密かつ高精度な探索空間を自動推定するために, 勾配等級ヒストグラムを用いた新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-20T04:34:19Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Deterministic Langevin Unconstrained Optimization with Normalizing Flows [3.988614978933934]
我々は,Fokker-Planck方程式とLangevin方程式にインスパイアされたブラックボックス関数に対するグローバルで自由な代理最適化戦略を導入する。
本研究は,標準合成試験関数の最適目的に向けての競争力の向上を実証する。
論文 参考訳(メタデータ) (2023-10-01T17:46:20Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Regret-Aware Black-Box Optimization with Natural Gradients,
Trust-Regions and Entropy Control [17.430247457941284]
CMA-ESのような最も成功したブラックボックスは、新しい検索分布を得るために個々のサンプルのランキングを使用する。
これらのアルゴリズムは、通常、検索分布の質の高い平均推定値を生成するが、これらのアルゴリズムは後悔を知らないため、生成したサンプルは品質が劣る可能性がある。
対照的に、Relative Entropy Search (MORE)アルゴリズムは、ランキングを使わずに、期待されるフィットネス機能を直接最適化する。
論文 参考訳(メタデータ) (2022-05-24T16:25:15Z) - PreGAN: Preemptive Migration Prediction Network for Proactive
Fault-Tolerant Edge Computing [12.215537834860699]
本稿では,GAN(Generative Adrial Network)を用いた複合AIモデルPreGANを提案する。
PreGANは、欠陥検出、診断、分類において最先端のベースライン手法より優れており、高い品質のサービスを実現することができる。
論文 参考訳(メタデータ) (2021-12-04T09:40:50Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。