論文の概要: Dynamic Scheduling for Stochastic Edge-Cloud Computing Environments
using A3C learning and Residual Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2009.02186v1
- Date: Tue, 1 Sep 2020 13:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 02:03:53.448747
- Title: Dynamic Scheduling for Stochastic Edge-Cloud Computing Environments
using A3C learning and Residual Recurrent Neural Networks
- Title(参考訳): A3C学習と残留繰り返しニューラルネットワークを用いた確率エッジクラウド環境の動的スケジューリング
- Authors: Shreshth Tuli, Shashikant Ilager, Kotagiri Ramamohanarao and Rajkumar
Buyya
- Abstract要約: A-Advantage-Actor-Critic(A3C)学習は、データが少ない動的なシナリオに迅速に適応することが知られ、Residual Recurrent Neural Network(R2N2)はモデルパラメータを迅速に更新する。
我々はR2N2アーキテクチャを用いて、多数のホストパラメータとタスクパラメータを時間パターンとともにキャプチャし、効率的なスケジューリング決定を提供する。
実世界のデータセットで実施された実験では、エネルギー消費、応答時間、ServiceLevelAgreementおよびランニングコストがそれぞれ14.4%、7.74%、31.9%、および4.64%で大幅に改善された。
- 参考スコア(独自算出の注目度): 30.61220416710614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ubiquitous adoption of Internet-of-Things (IoT) based applications has
resulted in the emergence of the Fog computing paradigm, which allows
seamlessly harnessing both mobile-edge and cloud resources. Efficient
scheduling of application tasks in such environments is challenging due to
constrained resource capabilities, mobility factors in IoT, resource
heterogeneity, network hierarchy, and stochastic behaviors. xisting heuristics
and Reinforcement Learning based approaches lack generalizability and quick
adaptability, thus failing to tackle this problem optimally. They are also
unable to utilize the temporal workload patterns and are suitable only for
centralized setups. However, Asynchronous-Advantage-Actor-Critic (A3C) learning
is known to quickly adapt to dynamic scenarios with less data and Residual
Recurrent Neural Network (R2N2) to quickly update model parameters. Thus, we
propose an A3C based real-time scheduler for stochastic Edge-Cloud environments
allowing decentralized learning, concurrently across multiple agents. We use
the R2N2 architecture to capture a large number of host and task parameters
together with temporal patterns to provide efficient scheduling decisions. The
proposed model is adaptive and able to tune different hyper-parameters based on
the application requirements. We explicate our choice of hyper-parameters
through sensitivity analysis. The experiments conducted on real-world data set
show a significant improvement in terms of energy consumption, response time,
Service-Level-Agreement and running cost by 14.4%, 7.74%, 31.9%, and 4.64%,
respectively when compared to the state-of-the-art algorithms.
- Abstract(参考訳): IoT(Internet-of-Things)ベースのアプリケーションの普及により、モバイルエッジとクラウドリソースの両方をシームレスに活用するFogコンピューティングパラダイムが誕生した。
このような環境でのアプリケーションタスクの効率的なスケジューリングは、制約のあるリソース能力、IoTのモビリティ要因、リソースの不均一性、ネットワーク階層、確率的な振る舞いのために難しい。
xistingヒューリスティックスと強化学習ベースのアプローチは一般化可能性と迅速な適応性に欠けており、この問題を最適に取り組めない。
また、時間的ワークロードパターンを利用できず、集中的なセットアップにのみ適しています。
しかし、非同期アドバンテージ-アクタ-クリティック(a3c)学習は、少ないデータと残留再帰ニューラルネットワーク(r2n2)で動的シナリオに迅速に適応し、モデルパラメータを迅速に更新することが知られている。
そこで我々は,複数のエージェントを並行して分散学習できる,確率的エッジクラウド環境のためのA3Cベースのリアルタイムスケジューラを提案する。
我々はR2N2アーキテクチャを用いて、多数のホストパラメータとタスクパラメータを時間パターンとともにキャプチャし、効率的なスケジューリング決定を提供する。
提案したモデルは適応的であり、アプリケーション要求に応じて異なるハイパーパラメータをチューニングできる。
感度分析によりハイパーパラメータの選択を抽出する。
実世界のデータセットで実施された実験は、最先端のアルゴリズムと比較してエネルギー消費、応答時間、サービスレベルアグリメント、ランニングコストの14.4%、7.74%、31.9%、および4.64%で大幅に改善された。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Reinforcement Learning-Based Adaptive Load Balancing for Dynamic Cloud Environments [0.0]
これらの課題に対処するために,Reinforcement Learning (RL) を用いた適応型ロードバランシングフレームワークを提案する。
我々のフレームワークは、タスクを動的に再配置し、レイテンシを最小化し、サーバ間のリソース利用のバランスを確保するように設計されています。
実験の結果,提案したRLベースのロードバランサは,応答時間,資源利用量,ワークロードの変化に対する適応性などの観点から,従来のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-09-07T19:40:48Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - A Deep Recurrent-Reinforcement Learning Method for Intelligent AutoScaling of Serverless Functions [18.36339203254509]
Fは軽量で関数ベースのクラウド実行モデルを導入し、IoTエッジデータ処理や異常検出など、さまざまなアプリケーションでその妥当性を見出す。
論文 参考訳(メタデータ) (2023-08-11T04:41:19Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Scheduling Inference Workloads on Distributed Edge Clusters with
Reinforcement Learning [11.007816552466952]
本稿では,エッジネットワークにおける予測クエリを短時間でスケジューリングする問題に焦点をあてる。
シミュレーションにより,大規模ISPの現実的なネットワーク設定とワークロードにおけるいくつかのポリシーを解析する。
我々は、強化学習に基づくスケジューリングアルゴリズムASETを設計し、システム条件に応じてその決定を適応させることができる。
論文 参考訳(メタデータ) (2023-01-31T13:23:34Z) - An optimised deep spiking neural network architecture without gradients [7.183775638408429]
本稿では、局所シナプスおよびしきい値適応ルールを用いたエンドツーエンドのトレーニング可能なモジュラーイベント駆動ニューラルアーキテクチャを提案する。
このアーキテクチャは、既存のスパイキングニューラルネットワーク(SNN)アーキテクチャの高度に抽象化されたモデルを表している。
論文 参考訳(メタデータ) (2021-09-27T05:59:12Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Reinforcement Learning on Computational Resource Allocation of
Cloud-based Wireless Networks [22.06811314358283]
IoT(Internet of Things)に使用される無線ネットワークには、主にクラウドベースのコンピューティングと処理が関与することが期待されている。
クラウド環境では、プロセスのパフォーマンスを維持しながらエネルギーを節約するために、動的計算資源割り当てが不可欠である。
本稿では、この動的計算資源割当問題をマルコフ決定プロセス(MDP)にモデル化し、CPU使用量の動的リソース割当を最適化するためのモデルベース強化学習エージェントを設計する。
その結果, エージェントは最適方針に迅速に収束し, 異なる設定で安定して動作し, 性能が良く, あるいは少なくとも等しく動作し, 異なるシナリオでの省エネにおけるベースラインアルゴリズムと比較した。
論文 参考訳(メタデータ) (2020-10-10T15:16:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。