論文の概要: ORIENT: A Priority-Aware Energy-Efficient Approach for Latency-Sensitive
Applications in 6G
- arxiv url: http://arxiv.org/abs/2402.06931v1
- Date: Sat, 10 Feb 2024 12:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:30:05.788956
- Title: ORIENT: A Priority-Aware Energy-Efficient Approach for Latency-Sensitive
Applications in 6G
- Title(参考訳): ORIENT: 6Gにおける遅延感度応用のための優先度を考慮したエネルギー効率向上手法
- Authors: Masoud Shokrnezhad and Tarik Taleb
- Abstract要約: コンピューティングとネットワークにおけるエネルギー消費の増加に関する懸念が高まっている。
接続デバイスとリソース需要アプリケーションの増加は、エネルギー資源に対する前例のない課題を呈している。
PIRAと呼ばれるサービスインスタンス配置・割り当て・経路選択・要求優先順位付けの連立問題について検討する。
- 参考スコア(独自算出の注目度): 15.753216159980434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anticipation for 6G's arrival comes with growing concerns about increased
energy consumption in computing and networking. The expected surge in connected
devices and resource-demanding applications presents unprecedented challenges
for energy resources. While sustainable resource allocation strategies have
been discussed in the past, these efforts have primarily focused on
single-domain orchestration or ignored the unique requirements posed by 6G. To
address this gap, we investigate the joint problem of service instance
placement and assignment, path selection, and request prioritization, dubbed
PIRA. The objective function is to maximize the system's overall profit as a
function of the number of concurrently supported requests while simultaneously
minimizing energy consumption over an extended period of time. In addition,
end-to-end latency requirements and resource capacity constraints are
considered for computing and networking resources, where queuing theory is
utilized to estimate the Age of Information (AoI) for requests. After
formulating the problem in a non-linear fashion, we prove its NP-hardness and
propose a method, denoted ORIENT. This method is based on the Double Dueling
Deep Q-Learning (D3QL) mechanism and leverages Graph Neural Networks (GNNs) for
state encoding. Extensive numerical simulations demonstrate that ORIENT yields
near-optimal solutions for varying system sizes and request counts.
- Abstract(参考訳): 6Gの到来予想は、コンピューティングとネットワークにおけるエネルギー消費の増加に対する懸念が高まっている。
接続デバイスやリソース要求アプリケーションの増加は、エネルギー資源にとって前例のない課題である。
持続可能なリソース割り当て戦略は過去にも議論されてきたが、これらの取り組みは主に単一ドメインのオーケストレーションに焦点を当てている。
このギャップに対処するために、PIRAと呼ばれるサービスインスタンス配置と割り当て、経路選択、リクエスト優先順位付けの連立問題を調査する。
目的関数は、システム全体の利益を同時支援要求数の関数として最大化するとともに、長期間にわたってエネルギー消費を最小化することである。
さらに、エンド・ツー・エンドのレイテンシ要件とリソース容量の制約がコンピューティングとネットワークリソースに考慮され、キューイング理論を用いて要求に対する情報年齢(aoi)を推定する。
非線型な方法で問題を定式化した後、NPの硬さを証明し、ORIENTと呼ばれる方法を提案する。
この方法はDouble Dueling Deep Q-Learning(D3QL)メカニズムに基づいており、状態符号化にグラフニューラルネットワーク(GNN)を利用する。
大規模な数値シミュレーションにより、ORIENTは様々なシステムサイズと要求数に対して、ほぼ最適解が得られることを示した。
関連論文リスト
- Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - Double Deep Q-Learning-based Path Selection and Service Placement for
Latency-Sensitive Beyond 5G Applications [11.864695986880347]
本稿では,CCRAと呼ばれる通信資源割当と計算機資源割当の連立問題を,総コストを最小化するために検討する。
我々は,この問題を非線形プログラミングモデルとして定式化し,B&B-CCRAとWF-CCRAという2つのアプローチを提案する。
数値シミュレーションにより,B&B-CCRAが最適解であるのに対し,WF-CCRAは比較的短い時間でほぼ最適解を提供することがわかった。
論文 参考訳(メタデータ) (2023-09-18T22:17:23Z) - Elastic Entangled Pair and Qubit Resource Management in Quantum Cloud
Computing [73.7522199491117]
量子クラウドコンピューティング(QCC)は、量子コンピューティングリソースを効率的に提供するための有望なアプローチを提供する。
ユーザ需要の変動と量子回路の要求は、効率的なリソース供給のために困難である。
本稿では、量子コンピューティングとネットワークリソースのプロビジョニングのためのリソース割り当てモデルを提案する。
論文 参考訳(メタデータ) (2023-07-25T00:38:46Z) - Artificial Intelligence Empowered Multiple Access for Ultra Reliable and
Low Latency THz Wireless Networks [76.89730672544216]
テラヘルツ(THz)無線ネットワークは、第5世代(B5G)以上の時代を触媒すると予想されている。
いくつかのB5Gアプリケーションの超信頼性と低レイテンシ要求を満たすためには、新しいモビリティ管理アプローチが必要である。
本稿では、インテリジェントなユーザアソシエーションとリソースアロケーションを実現するとともに、フレキシブルで適応的なモビリティ管理を可能にする、全体論的MAC層アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:00:24Z) - On-Demand Resource Management for 6G Wireless Networks Using
Knowledge-Assisted Dynamic Neural Networks [13.318287511072354]
本稿では,オーケストレーション決定プロセスにおける計算遅延に着目し,オンデマンド無線リソースオーケストレーション問題について検討する。
動的ニューラルネットワーク(DyNN)に基づく手法を提案し,サービス要求に応じてモデルの複雑性を調整する。
知識を活用することで、DyNNの幅をタイムリーに選択でき、さらにオーケストレーションの性能を向上させることができる。
論文 参考訳(メタデータ) (2022-08-02T23:40:03Z) - FELARE: Fair Scheduling of Machine Learning Applications on
Heterogeneous Edge Systems [5.165692107696155]
エッジコンピューティングは、レイテンシに敏感な機械学習(ML)アプリケーションの同時実行と継続的実行を通じて、スマートIoTベースのシステムを実現する。
エネルギー制約を考慮しつつ、リアルタイムタスク完了率を向上させるリソース割当ソリューションを検討、分析する。
作業完了率の8.9%,省エネ率の12.6%はエッジシステムに大きなオーバーヘッドを伴わずに改善した。
論文 参考訳(メタデータ) (2022-05-31T19:19:40Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Edge Intelligence for Energy-efficient Computation Offloading and
Resource Allocation in 5G Beyond [7.953533529450216]
さらに5Gは、エッジデバイス、エッジサーバ、クラウドの異種機能を活用可能な、エッジクラウドオーケストレーションネットワークである。
マルチユーザ無線ネットワークでは、多様なアプリケーション要件とデバイス間の通信のための様々な無線アクセスモードの可能性により、最適な計算オフロード方式の設計が困難になる。
深層強化学習(Dep Reinforcement Learning, DRL)は、そのような問題に限定的で精度の低いネットワーク情報で対処する新興技術である。
論文 参考訳(メタデータ) (2020-11-17T05:51:03Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。