論文の概要: Dynamic Resource Allocation for Metaverse Applications with Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2302.13445v1
- Date: Mon, 27 Feb 2023 00:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 17:09:41.441405
- Title: Dynamic Resource Allocation for Metaverse Applications with Deep
Reinforcement Learning
- Title(参考訳): 深層強化学習を用いたメタバースアプリケーションのための動的リソース割り当て
- Authors: Nam H. Chu, Diep N. Nguyen, Dinh Thai Hoang, Khoa T. Phan, Eryk
Dutkiewicz, Dusit Niyato, and Tao Shu
- Abstract要約: そこで本研究では,Metaverse アプリケーション用の異なるタイプのリソースを動的に管理・割り当てする新しいフレームワークを提案する。
まず,アプリケーション間で共通関数を共有できるMetaInstancesという,アプリケーションをグループに分割する効果的なソリューションを提案する。
そこで我々は,要求到着プロセスとアプリケーション離脱プロセスのリアルタイム,動的,不確実な特性を捉えるために,セミマルコフ決定プロセスに基づくフレームワークを開発する。
- 参考スコア(独自算出の注目度): 64.75603723249837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a novel framework to dynamically and effectively manage
and allocate different types of resources for Metaverse applications, which are
forecasted to demand massive resources of various types that have never been
seen before. Specifically, by studying functions of Metaverse applications, we
first propose an effective solution to divide applications into groups, namely
MetaInstances, where common functions can be shared among applications to
enhance resource usage efficiency. Then, to capture the real-time, dynamic, and
uncertain characteristics of request arrival and application departure
processes, we develop a semi-Markov decision process-based framework and
propose an intelligent algorithm that can gradually learn the optimal admission
policy to maximize the revenue and resource usage efficiency for the Metaverse
service provider and at the same time enhance the Quality-of-Service for
Metaverse users. Extensive simulation results show that our proposed approach
can achieve up to 120% greater revenue for the Metaverse service providers and
up to 178.9% higher acceptance probability for Metaverse application requests
than those of other baselines.
- Abstract(参考訳): 本研究は、これまで見たことのない様々なタイプの大量のリソースを必要とすると予測された、メタバースアプリケーションの様々なタイプのリソースを動的かつ効果的に管理し割り当てる、新しいフレームワークを提案する。
具体的には、Metaverse アプリケーションの機能を研究することによって、まずアプリケーションをグループ、すなわち MetaInstances に分割する効果的なソリューションを提案し、そこでは、共通関数をアプリケーション間で共有し、リソース使用効率を向上させる。
次に、要求の到着・発着プロセスのリアルタイム・動的・不確実性を把握するために、セミマルコフ決定プロセスに基づくフレームワークを開発し、メタバースサービスプロバイダの収益・資源利用効率を最大化するために、最適な入場ポリシーを徐々に学習し、同時にメタバースユーザのためのサービス品質を向上させるインテリジェントなアルゴリズムを提案する。
広範なシミュレーション結果から,提案手法は,メタバースサービスプロバイダの収益を最大120%,メタバースアプリケーション要求の受け入れ確率を178.9%向上させることができた。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Learning to Rank for Multiple Retrieval-Augmented Models through Iterative Utility Maximization [21.115495457454365]
本稿では,複数検索拡張世代(RAG)エージェントを対象とした統合検索エンジンの設計について検討する。
本稿では,これらのRAGエージェントの検索結果を検索エンジンが生成し,オフラインで検索した文書の品質に関するフィードバックを収集する反復的手法を提案する。
我々は、このアプローチをオンライン環境に適応させ、リアルタイムな個別エージェントのフィードバックに基づいて、検索エンジンがその振る舞いを洗練できるようにする。
論文 参考訳(メタデータ) (2024-10-13T17:53:50Z) - Meta-Reinforcement Learning with Universal Policy Adaptation: Provable Near-Optimality under All-task Optimum Comparator [9.900800253949512]
本稿では,メタRL(BO-MRL)の2段階最適化フレームワークを開発し,タスク固有のポリシー適応のためのメタプライヤを学習する。
提案手法の精度を実証的に検証し,提案アルゴリズムがベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-13T05:17:58Z) - Meta-RTL: Reinforcement-Based Meta-Transfer Learning for Low-Resource Commonsense Reasoning [61.8360232713375]
低リソースコモンセンス推論のための強化型マルチソースメタトランスファー学習フレームワーク(Meta-RTL)を提案する。
本稿では,メタトランスファー学習において,対象タスクに対するタスクの寄与を動的に推定する手法を提案する。
実験の結果,Meta-RTLは,強いベースラインと以前のタスク選択戦略を大幅に上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-27T18:22:22Z) - Tackling Decision Processes with Non-Cumulative Objectives using Reinforcement Learning [0.0]
我々は,非累積マルコフ決定過程を標準MDPに一般化したマッピングを導入する。
これにより、MDPがより大規模なNCMDPに直接適用されるための最適なポリシーを見つけるために開発されたすべての技術が利用可能となる。
我々は、古典的な制御、金融におけるポートフォリオ最適化、離散最適化問題など、様々なタスクのアプリケーションを示す。
論文 参考訳(メタデータ) (2024-05-22T13:01:37Z) - RLEMMO: Evolutionary Multimodal Optimization Assisted By Deep Reinforcement Learning [8.389454219309837]
マルチモーダル最適化問題 (MMOP) は, 限られた関数評価において困難となる最適解の探索を必要とする。
本稿では,メタブラックボックス最適化フレームワークであるRLEMMOを提案する。
品質と多様性の両方を促進する新しい報酬メカニズムにより、RLEMMOはポリシー勾配アルゴリズムを用いて効果的に訓練できる。
論文 参考訳(メタデータ) (2024-04-12T05:02:49Z) - Let's reward step by step: Step-Level reward model as the Navigators for
Reasoning [64.27898739929734]
Process-Supervised Reward Model (PRM)は、トレーニングフェーズ中にステップバイステップのフィードバックをLLMに提供する。
LLMの探索経路を最適化するために,PRMからのステップレベルのフィードバックを応用した欲求探索アルゴリズムを提案する。
提案手法の汎用性を探るため,コーディングタスクのステップレベル報酬データセットを自動生成する手法を開発し,コード生成タスクにおける同様の性能向上を観察する。
論文 参考訳(メタデータ) (2023-10-16T05:21:50Z) - Attention-aware Resource Allocation and QoE Analysis for Metaverse
xURLLC Services [78.17423912423999]
サービスプロバイダ(MSP)とネットワークインフラストラクチャプロバイダ(InP)の相互作用について検討する。
メタバース利用者の主観的感情と主観的感情の両方を取り入れたメタデュイマージョン(Meta-DuImmersion)という新しい尺度を提案する。
我々は、xURLLCにおけるQoEを改善するために、注意を意識したレンダリングキャパシティ割り当て方式を開発した。
論文 参考訳(メタデータ) (2022-08-10T16:51:27Z) - Deep Reinforcement Learning for Resource Allocation in Business
Processes [3.0938904602244355]
プロセスに基づく報酬の異なるマルチプロセス環境のモデリングを可能にする新しい表現を提案する。
次に、二重強化学習を使用して、最適なリソース割り当てポリシーを探します。
深層強化学習に基づくリソース割り当ては、一般的な2つのテクニックよりも大幅に優れた結果を得た。
論文 参考訳(メタデータ) (2021-03-29T11:20:25Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。