論文の概要: Reinforcement Learning in Computing and Network Convergence
Orchestration
- arxiv url: http://arxiv.org/abs/2209.10753v1
- Date: Thu, 22 Sep 2022 03:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:59:19.596091
- Title: Reinforcement Learning in Computing and Network Convergence
Orchestration
- Title(参考訳): コンピューティングとネットワーク収束オーケストレーションにおける強化学習
- Authors: Aidong Yang, Mohan Wu, Boquan Cheng, Xiaozhou Ye, Ye Ouyang
- Abstract要約: CNC(Computer and Network Convergence)の概念が提案され、広く注目を集めている。
最初の試みである強化学習(RL)を用いたCNCオーケストレーション手法を設計し、コンピュータリソースやネットワークリソースを柔軟に割り当て、スケジュールすることができる。
実験により, 提案手法は, グレーディ法, ランダム選択法, 平衡資源法よりも高い利益率と低レイテンシを実現することができることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As computing power is becoming the core productivity of the digital economy
era, the concept of Computing and Network Convergence (CNC), under which
network and computing resources can be dynamically scheduled and allocated
according to users' needs, has been proposed and attracted wide attention.
Based on the tasks' properties, the network orchestration plane needs to
flexibly deploy tasks to appropriate computing nodes and arrange paths to the
computing nodes. This is a orchestration problem that involves resource
scheduling and path arrangement. Since CNC is relatively new, in this paper, we
review some researches and applications on CNC. Then, we design a CNC
orchestration method using reinforcement learning (RL), which is the first
attempt, that can flexibly allocate and schedule computing resources and
network resources. Which aims at high profit and low latency. Meanwhile, we use
multi-factors to determine the optimization objective so that the orchestration
strategy is optimized in terms of total performance from different aspects,
such as cost, profit, latency and system overload in our experiment. The
experiments shows that the proposed RL-based method can achieve higher profit
and lower latency than the greedy method, random selection and
balanced-resource method. We demonstrate RL is suitable for CNC orchestration.
This paper enlightens the RL application on CNC orchestration.
- Abstract(参考訳): コンピューティングパワーがデジタルエコノミー時代の中核的な生産性を増すにつれ、ネットワークリソースとコンピューティングリソースを動的にスケジュールし、ユーザのニーズに応じて割り当てるCNC(Computer and Network Convergence)の概念が提案され、広く注目されている。
タスクの特性に基づいて、ネットワークオーケストレーションプレーンは、タスクを適切な計算ノードに柔軟にデプロイし、計算ノードへのパスを配置する必要があります。
これは、リソーススケジューリングとパスアレンジメントを含むオーケストレーションの問題です。
CNCは比較的新しく,本論文ではCNCに関するいくつかの研究と応用について概説する。
そこで我々は,コンピュータリソースやネットワークリソースを柔軟に割り当て,スケジュールする,最初の試みである強化学習(RL)を用いたCNCオーケストレーション手法を設計する。
高い利益と低レイテンシを目標としています
一方で,マルチファクタを用いて最適化目標を決定し,コストや利益,レイテンシ,システムの過負荷といったさまざまな側面から,オーケストレーション戦略を最適化できるようにしています。
提案手法は, グリーディ法, ランダム選択法, バランスドリソース法よりも高い利益と低レイテンシを実現できることを示す。
RLがCNCオーケストレーションに適していることを実証する。
本稿では,CNCオーケストレーションにおけるRLアプリケーションについて述べる。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Generative AI-enabled Quantum Computing Networks and Intelligent
Resource Allocation [80.78352800340032]
量子コンピューティングネットワークは、大規模な生成AI計算タスクと高度な量子アルゴリズムを実行する。
量子コンピューティングネットワークにおける効率的なリソース割り当ては、量子ビットの可変性とネットワークの複雑さのために重要な課題である。
我々は、生成学習から量子機械学習まで、最先端強化学習(RL)アルゴリズムを導入し、最適な量子リソース割り当てを行う。
論文 参考訳(メタデータ) (2024-01-13T17:16:38Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Intelligence-Endogenous Management Platform for Computing and Network
Convergence [33.45559800534038]
我々は,人工知能技術に基づくemphCNC脳という,CNCのためのインテリジェンス内在的管理プラットフォームの概念を提示する。
これは、CNCにおける供給と需要を、知覚、スケジューリング、適応、ガバナンスの4つの重要な構成要素を通して、高い不均一性と効率的にマッチングすることを目的としている。
2つのオープンソースおよび人気のあるフレームワークと、Microsoft Azureが提供する実世界のビジネスデータセットを統合するCNCテストベッドで評価されている。
論文 参考訳(メタデータ) (2023-08-07T10:12:15Z) - Elastic Entangled Pair and Qubit Resource Management in Quantum Cloud
Computing [73.7522199491117]
量子クラウドコンピューティング(QCC)は、量子コンピューティングリソースを効率的に提供するための有望なアプローチを提供する。
ユーザ需要の変動と量子回路の要求は、効率的なリソース供給のために困難である。
本稿では、量子コンピューティングとネットワークリソースのプロビジョニングのためのリソース割り当てモデルを提案する。
論文 参考訳(メタデータ) (2023-07-25T00:38:46Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks [18.04856086228028]
深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
論文 参考訳(メタデータ) (2021-03-22T02:09:16Z) - Reinforcement Learning on Computational Resource Allocation of
Cloud-based Wireless Networks [22.06811314358283]
IoT(Internet of Things)に使用される無線ネットワークには、主にクラウドベースのコンピューティングと処理が関与することが期待されている。
クラウド環境では、プロセスのパフォーマンスを維持しながらエネルギーを節約するために、動的計算資源割り当てが不可欠である。
本稿では、この動的計算資源割当問題をマルコフ決定プロセス(MDP)にモデル化し、CPU使用量の動的リソース割当を最適化するためのモデルベース強化学習エージェントを設計する。
その結果, エージェントは最適方針に迅速に収束し, 異なる設定で安定して動作し, 性能が良く, あるいは少なくとも等しく動作し, 異なるシナリオでの省エネにおけるベースラインアルゴリズムと比較した。
論文 参考訳(メタデータ) (2020-10-10T15:16:26Z) - When Deep Reinforcement Learning Meets Federated Learning: Intelligent
Multi-Timescale Resource Management for Multi-access Edge Computing in 5G
Ultra Dense Network [31.274279003934268]
まず,ブロックチェーンとAIを5Gエッジコンピューティングネットワークに統合した,インテリジェントな超高密度エッジコンピューティング(I-UDEC)フレームワークを提案する。
実時間および低オーバーヘッド計算のオフロード決定と資源配分戦略を実現するために,新しい2段階の深層強化学習法(textit2Ts-DRL)を設計する。
提案アルゴリズムはタスク実行時間を最大31.87%削減できる。
論文 参考訳(メタデータ) (2020-09-22T15:08:00Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。