論文の概要: Dynamic Partial Computation Offloading for the Metaverse in In-Network
Computing
- arxiv url: http://arxiv.org/abs/2306.06022v2
- Date: Mon, 4 Mar 2024 06:11:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 03:16:13.522277
- Title: Dynamic Partial Computation Offloading for the Metaverse in In-Network
Computing
- Title(参考訳): ネットワーク内計算におけるメタバースの動的部分計算オフロード
- Authors: Ibrahim Aliyu, Seungmin Oh, Namseok Ko, Tai-Won Um, Jinsul Kim
- Abstract要約: 我々はCOIN環境における複数のサブタスクに対するメタバースにおける部分計算のオフロード問題を考察する。
我々はこれを,ユーザ側のタスク分割問題(TSP)と,COIN側のタスクオフロード問題(TOP)の2つのサブプロブレムに変換する。
知的エージェントが特定の確率でランダムにオフロード決定をサンプリングする従来のDDQNアルゴリズムとは異なり、COINエージェントはTSPとディープニューラルネットワークのNEを探索する。
- 参考スコア(独自算出の注目度): 1.1124588036301817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The computing in the network (COIN) paradigm is a promising solution that
leverages unused network resources to perform tasks to meet
computation-demanding applications, such as the metaverse. In this vein, we
consider the partial computation offloading problem in the metaverse for
multiple subtasks in a COIN environment to minimize energy consumption and
delay while dynamically adjusting the offloading policy based on the changing
computational resource status. The problem is NP-hard, and we transform it into
two subproblems: the task-splitting problem (TSP) on the user side and the
task-offloading problem (TOP) on the COIN side. We model the TSP as an ordinal
potential game and propose a decentralized algorithm to obtain its Nash
equilibrium (NE). Then, we model the TOP as a Markov decision process and
propose the double deep Q-network (DDQN) to solve for the optimal offloading
policy. Unlike the conventional DDQN algorithm, where intelligent agents sample
offloading decisions randomly within a certain probability, the COIN agent
explores the NE of the TSP and the deep neural network. Finally, the simulation
results reveal that the proposed model approach allows the COIN agent to update
its policies and make more informed decisions, leading to improved performance
over time compared to the traditional baseline
- Abstract(参考訳): ネットワーク内のコンピューティング(COIN)パラダイムは、未使用のネットワークリソースを活用して、メタバースなどの計算要求アプリケーションに対応するタスクを実行する、有望なソリューションである。
本稿では,コイン環境における複数のサブタスクのメタバースにおける部分計算オフロード問題を検討し,計算資源状態の変化に基づいてオフロードポリシーを動的に調整しながら,消費電力と遅延を最小限に抑える。
問題はNPハードであり、ユーザ側のタスク分割問題(TSP)とCOIN側のタスクオフロード問題(TOP)の2つのサブプロブレムに変換する。
我々は、TSPを順序付きポテンシャルゲームとしてモデル化し、Nash平衡(NE)を得るための分散アルゴリズムを提案する。
次に,TOPをマルコフ決定プロセスとしてモデル化し,最適オフロードポリシーの解法としてDouble Deep Q-network (DDQN)を提案する。
知的エージェントが特定の確率でランダムにオフロード決定をサンプリングする従来のDDQNアルゴリズムとは異なり、COINエージェントはTSPとディープニューラルネットワークのNEを探索する。
最後に,シミュレーションの結果から,提案手法によりCOINエージェントがポリシーを更新し,より情報的決定を行えるようになり,従来のベースラインに比べて時間とともに性能が向上することが明らかとなった。
関連論文リスト
- Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Learning RL-Policies for Joint Beamforming Without Exploration: A Batch
Constrained Off-Policy Approach [1.0080317855851213]
本稿では,ネットワークにおけるパラメータキャンセル最適化の問題点について考察する。
探索と学習のために実世界でアルゴリズムをデプロイすることは、探索せずにデータによって達成できることを示す。
論文 参考訳(メタデータ) (2023-10-12T18:36:36Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Power Control with QoS Guarantees: A Differentiable Projection-based
Unsupervised Learning Framework [14.518558523319518]
NPハード無線リソース割り当て問題を解決する潜在的なソリューションとして、ディープニューラルネットワーク(DNN)が登場している。
マルチユーザチャネルにおける古典的電力制御問題を解決するために,教師なし学習フレームワークを提案する。
提案手法は,データレートを向上するだけでなく,既存の計算に比べて制約違反の確率をゼロにすることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:11:51Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z) - An Efficient Algorithm for Cooperative Semi-Bandits [0.0]
本稿では,有名なFollow The Perturbed Leaderアルゴリズムの協調バージョンであるCoop-FTPLを紹介する。
T 時間ステップ後のアルゴリズムの期待された後悔は QT log(k)(k$alpha$ 1 /Q + m) であり、Q は総アクティベーション確率質量である。
論文 参考訳(メタデータ) (2020-10-05T07:08:26Z) - Information Freshness-Aware Task Offloading in Air-Ground Integrated
Edge Computing Systems [49.80033982995667]
本稿では,空域統合マルチアクセスエッジコンピューティングシステムにおける情報更新性を考慮したタスクオフロードの問題について検討する。
サードパーティのリアルタイムアプリケーションサービスプロバイダは、InPからの限られた通信と計算リソースで、加入したモバイルユーザ(MU)にコンピューティングサービスを提供する。
本稿では,各MUに2つの個別の深度Q-networksを適用し,Q-factorと後Q-factorを近似する新しい深度強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-15T21:32:43Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。