論文の概要: Agile Reinforcement Learning for Real-Time Task Scheduling in Edge Computing
- arxiv url: http://arxiv.org/abs/2506.08850v1
- Date: Tue, 10 Jun 2025 14:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.65352
- Title: Agile Reinforcement Learning for Real-Time Task Scheduling in Edge Computing
- Title(参考訳): エッジコンピューティングにおけるリアルタイムタスクスケジューリングのためのアジャイル強化学習
- Authors: Amin Avan, Akramul Azim, Qusay Mahmoud,
- Abstract要約: 本研究では,エッジコンピューティングにおけるソフトリアルタイムアプリケーションをスケジューリングするためのアジャイル強化学習(aRL)を提案する。
RLエージェントは情報探索を行い、関連するアクションのみを実行する。
実験により、情報探索法とアクションマスキング法の組み合わせにより、aRLは高ヒット比を達成でき、ベースラインアプローチよりも早く収束できることが示された。
- 参考スコア(独自算出の注目度): 0.3277163122167434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Soft real-time applications are becoming increasingly complex, posing significant challenges for scheduling offloaded tasks in edge computing environments while meeting task timing constraints. Moreover, the exponential growth of the search space, presence of multiple objectives and parameters, and highly dynamic nature of edge computing environments further exacerbate the complexity of task scheduling. As a result, schedulers based on heuristic and metaheuristic algorithms frequently encounter difficulties in generating optimal or near-optimal task schedules due to their constrained ability to adapt to the dynamic conditions and complex environmental characteristics of edge computing. Accordingly, reinforcement learning algorithms have been incorporated into schedulers to address the complexity and dynamic conditions inherent in task scheduling in edge computing. However, a significant limitation of reinforcement learning algorithms is the prolonged learning time required to adapt to new environments and to address medium- and large-scale problems. This challenge arises from the extensive global action space and frequent random exploration of irrelevant actions. Therefore, this study proposes Agile Reinforcement learning (aRL), in which the RL-agent performs informed exploration and executes only relevant actions. Consequently, the predictability of the RL-agent is enhanced, leading to rapid adaptation and convergence, which positions aRL as a suitable candidate for scheduling the tasks of soft real-time applications in edge computing. The experiments demonstrate that the combination of informed exploration and action-masking methods enables aRL to achieve a higher hit-ratio and converge faster than the baseline approaches.
- Abstract(参考訳): ソフトリアルタイムアプリケーションはますます複雑になってきており、タスクのタイミング制約を満たしながらエッジコンピューティング環境でオフロードされたタスクをスケジューリングする上で大きな課題となっている。
さらに、探索空間の指数的成長、複数の目的やパラメータの存在、エッジコンピューティング環境の非常にダイナミックな性質により、タスクスケジューリングの複雑さはさらに悪化する。
その結果、ヒューリスティックかつメタヒューリスティックなアルゴリズムに基づくスケジューラは、エッジコンピューティングの動的条件や複雑な環境特性に適応する制約があるため、最適なタスクスケジュールやほぼ最適タスクスケジュールを生成するのにしばしば困難に直面する。
したがって、エッジコンピューティングにおけるタスクスケジューリングに固有の複雑さと動的条件に対処するために、強化学習アルゴリズムがスケジューラに組み込まれている。
しかし、強化学習アルゴリズムの顕著な制限は、新しい環境に適応し、中規模および大規模問題に対処するのに要する学習時間の延長である。
この課題は、広範囲なグローバルなアクション空間と、無関係なアクションのランダムな探索から生じる。
そこで本研究では,RLエージェントが情報探索を行い,関連する行動のみを実行するアジャイル強化学習(aRL)を提案する。
その結果、RLエージェントの予測可能性が向上し、急速に適応し収束し、aRLがエッジコンピューティングにおけるソフトリアルタイムアプリケーションのタスクのスケジューリングに適した候補となる。
実験により、情報探索法とアクションマスキング法の組み合わせにより、aRLは高ヒット比を達成でき、ベースラインアプローチよりも早く収束できることが示された。
関連論文リスト
- Fast and Robust: Task Sampling with Posterior and Diversity Synergies for Adaptive Decision-Makers in Randomized Environments [40.869524679544824]
Posterior and Diversity Synergized Task Smpling (PDTS) は、高速かつ堅牢なシーケンシャルな意思決定を実現するための、実装が容易な方法である。
PDTSは、堅牢なアクティブタスクサンプリングの可能性を解き、挑戦的なタスクにおけるゼロショットおよび少数ショット適応ロバスト性を大幅に改善し、特定のシナリオ下での学習プロセスを加速する。
論文 参考訳(メタデータ) (2025-04-27T07:27:17Z) - Causally Aligned Curriculum Learning [69.11672390876763]
本稿では、因果レンズによるカリキュラムRLの問題について検討する。
因果的に整合したソースタスクを特徴付ける十分なグラフィカルな条件を導出する。
因果整合型カリキュラムを生成するための効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-03-21T02:20:38Z) - Research on Edge Computing and Cloud Collaborative Resource Scheduling Optimization Based on Deep Reinforcement Learning [11.657154571216234]
本研究では,深部強化学習(DRL)を用いたエッジクラウド協調コンピューティングにおける資源スケジューリング最適化の課題に対処する。
DRLに基づく提案手法は,タスク処理効率の向上,全体の処理時間削減,資源利用の向上,タスクマイグレーションの効果的制御を実現する。
論文 参考訳(メタデータ) (2025-02-26T03:05:11Z) - Reinforcement Learning for Adaptive Resource Scheduling in Complex System Environments [8.315191578007857]
そこで本研究では,Q-ラーニングに基づく新しいコンピュータシステムの性能最適化と適応型ワークロード管理スケジューリングアルゴリズムを提案する。
対照的に、強化学習アルゴリズムであるQラーニングは、システムの状態変化から継続的に学習し、動的スケジューリングとリソース最適化を可能にする。
この研究は、将来の大規模システムにおけるAI駆動適応スケジューリングの統合の基礎を提供し、システムのパフォーマンスを高め、運用コストを削減し、持続可能なエネルギー消費をサポートするスケーラブルでインテリジェントなソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-08T05:58:09Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Overcoming Exploration: Deep Reinforcement Learning in Complex
Environments from Temporal Logic Specifications [2.8904578737516764]
本稿では,大規模複雑な環境に展開する未知の連続時間ダイナミクスを有するタスク誘導型ロボットのためのDeep Reinforcement Learning (DRL)アルゴリズムを提案する。
本フレームワークは,大規模複雑な環境下での複雑なミッションをこなすロボットの性能(有効性,効率)を著しく向上させる。
論文 参考訳(メタデータ) (2022-01-28T16:39:08Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z) - Geometric Deep Reinforcement Learning for Dynamic DAG Scheduling [8.14784681248878]
本稿では,現実的なスケジューリング問題を解決するための強化学習手法を提案する。
高性能コンピューティングコミュニティにおいて一般的に実行されるアルゴリズムであるColesky Factorizationに適用する。
我々のアルゴリズムは,アクター・クリティカル・アルゴリズム (A2C) と組み合わせてグラフニューラルネットワークを用いて,問題の適応表現をオンザフライで構築する。
論文 参考訳(メタデータ) (2020-11-09T10:57:21Z) - Learning Adaptive Exploration Strategies in Dynamic Environments Through
Informed Policy Regularization [100.72335252255989]
本研究では,動的環境に効果的に適応する探索探索探索戦略の課題について検討する。
本稿では,各タスクにおける報酬を最大化するために訓練された情報ポリシを用いて,RNNベースのポリシーのトレーニングを規則化する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T16:14:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。