論文の概要: Digital Twin-Assisted Efficient Reinforcement Learning for Edge Task
Scheduling
- arxiv url: http://arxiv.org/abs/2208.01781v1
- Date: Tue, 2 Aug 2022 23:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:22:39.473078
- Title: Digital Twin-Assisted Efficient Reinforcement Learning for Edge Task
Scheduling
- Title(参考訳): エッジタスクスケジューリングのためのデジタル双対支援強化学習
- Authors: Xiucheng Wang, Longfei Ma, Haocheng Li, Zhisheng Yin, Tom. Luan, Nan
Cheng
- Abstract要約: 本稿では,RLの性能と収束性を改善するために,Digital Twin(DT)を用いたRLベースのタスクスケジューリング手法を提案する。
DT支援非同期Qラーニング(DTAQL)とDT支援Qラーニング(DTEQL)という2つのアルゴリズムがタスクスケジューリング決定を行うように設計されている。
- 参考スコア(独自算出の注目度): 10.777592783012702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Task scheduling is a critical problem when one user offloads multiple
different tasks to the edge server. When a user has multiple tasks to offload
and only one task can be transmitted to server at a time, while server
processes tasks according to the transmission order, the problem is NP-hard.
However, it is difficult for traditional optimization methods to quickly obtain
the optimal solution, while approaches based on reinforcement learning face
with the challenge of excessively large action space and slow convergence. In
this paper, we propose a Digital Twin (DT)-assisted RL-based task scheduling
method in order to improve the performance and convergence of the RL. We use DT
to simulate the results of different decisions made by the agent, so that one
agent can try multiple actions at a time, or, similarly, multiple agents can
interact with environment in parallel in DT. In this way, the exploration
efficiency of RL can be significantly improved via DT, and thus RL can
converges faster and local optimality is less likely to happen. Particularly,
two algorithms are designed to made task scheduling decisions, i.e.,
DT-assisted asynchronous Q-learning (DTAQL) and DT-assisted exploring
Q-learning (DTEQL). Simulation results show that both algorithms significantly
improve the convergence speed of Q-learning by increasing the exploration
efficiency.
- Abstract(参考訳): あるユーザが複数の異なるタスクをエッジサーバにオフロードする場合、タスクスケジューリングは重要な問題である。
ユーザが複数のタスクをオフロードし、一度に1つのタスクしかサーバに送信できない場合、サーバは送信順序に従ってタスクを処理するが、問題はNPハードである。
しかし、従来の最適化手法では最適解を迅速に得ることは困難であり、強化学習に基づくアプローチは過度に大きなアクション空間と緩やかな収束の課題に直面している。
本稿では,RLの性能と収束性を改善するために,Digital Twin(DT)を利用したタスクスケジューリング手法を提案する。
エージェントが行った異なる決定の結果をシミュレートするためにdtを使用し、あるエージェントが一度に複数のアクションを試すか、同じように複数のエージェントがdtで並行して環境とやりとりできる。
このようにして、RLの探索効率はDTにより大幅に向上できるので、RLはより早く収束し、局所的な最適性が起こらない。
特に、DT支援非同期Qラーニング(DTAQL)とDT支援Qラーニング(DTEQL)という2つのアルゴリズムがタスクスケジューリング決定を行うように設計されている。
シミュレーションの結果,両アルゴリズムとも探索効率を高め,q-learningの収束速度を大幅に向上させた。
関連論文リスト
- Sparse Diffusion Policy: A Sparse, Reusable, and Flexible Policy for Robot Learning [61.294110816231886]
我々はスパース・リユース・フレキシブル・ポリシー、スパース・ディフュージョン・ポリシー(SDP)を導入する。
SDPは、エキスパートとスキルを選択的に活性化し、モデル全体をトレーニングすることなく、効率的でタスク固有の学習を可能にする。
デモとコードはhttps://forrest-110.io/sparse_diffusion_policy/にある。
論文 参考訳(メタデータ) (2024-07-01T17:59:56Z) - In-Context Decision Transformer: Reinforcement Learning via Hierarchical Chain-of-Thought [13.034968416139826]
In-context Decision Transformer (IDT) を提案する。
IDTは人間の意思決定の効率的な階層構造にインスパイアされている。
IDTは、現在のコンテキスト内RLメソッドよりも長い水平タスクの最先端を実現する。
論文 参考訳(メタデータ) (2024-05-31T08:38:25Z) - RL-GPT: Integrating Reinforcement Learning and Code-as-policy [82.1804241891039]
本稿では,低速エージェントと高速エージェントからなる2レベル階層型フレームワークRL-GPTを提案する。
遅いエージェントはコーディングに適したアクションを分析し、速いエージェントはコーディングタスクを実行する。
この分解は、各エージェントが特定のタスクに効果的に集中し、パイプライン内で非常に効率的なことを証明します。
論文 参考訳(メタデータ) (2024-02-29T16:07:22Z) - Solving Continual Offline Reinforcement Learning with Decision Transformer [78.59473797783673]
連続的オフライン強化学習(CORL)は、連続的およびオフライン的な強化学習を組み合わせたものである。
Actor-Critic構造とエクスペリエンス・リプレイ(ER)を取り入れた既存の手法は、分散シフト、低効率、知識共有の弱さに悩まされている。
我々は,マルチヘッドDT (MH-DT) とローランク適応DT (LoRA-DT) を導入し,DTの無視問題を緩和する。
論文 参考訳(メタデータ) (2024-01-16T16:28:32Z) - FAMO: Fast Adaptive Multitask Optimization [48.59232177073481]
本稿では,動的重み付け手法であるFast Adaptive Multitask Optimization FAMOを導入する。
この結果から,FAMOは最先端の勾配操作技術に匹敵する,あるいは優れた性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-06T15:39:54Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [68.7863363109948]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - On-edge Multi-task Transfer Learning: Model and Practice with
Data-driven Task Allocation [20.20889051697198]
マルチタスク・トランスファー・ラーニング(MTL)におけるタスク・アロケーションは,NP完全Knapsack問題の変種であることを示す。
我々は,データ駆動型協調作業割当(DCTA)アプローチを提案し,高い計算効率でTATIMを解く。
我々のDCTAは処理時間の3.24倍を削減し、TATIMを解く際の最先端技術と比較して48.4%の省エネを図っている。
論文 参考訳(メタデータ) (2021-07-06T08:24:25Z) - Dynamic Multi-Robot Task Allocation under Uncertainty and Temporal
Constraints [52.58352707495122]
本稿では,不確実性およびマルチエージェント協調の下での逐次意思決定における重要な計算課題を分離するマルチロボット割当アルゴリズムを提案する。
都市におけるマルチアームコンベヤベルトピック・アンド・プレイスとマルチドローン配送ディスパッチの2つの異なる領域における広範囲なシミュレーション結果について検証を行った。
論文 参考訳(メタデータ) (2020-05-27T01:10:41Z) - Distributed Primal-Dual Optimization for Online Multi-Task Learning [22.45069527817333]
本稿では,対数学習におけるタスク固有のノイズを捕捉し,実行時効率でプロジェクションフリーな更新を行う適応的原始双対アルゴリズムを提案する。
我々のモデルは、エネルギー不足や帯域制限のあるタスクが更新を延期できるようにするため、分散型の周期接続タスクに適しています。
実験結果から,提案モデルが実世界の様々なデータセットに対して極めて有効であることが確認された。
論文 参考訳(メタデータ) (2020-04-02T23:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。