論文の概要: How to Minimize the Weighted Sum AoI in Two-Source Status Update
Systems: OMA or NOMA?
- arxiv url: http://arxiv.org/abs/2205.03143v1
- Date: Fri, 6 May 2022 11:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 12:18:18.960911
- Title: How to Minimize the Weighted Sum AoI in Two-Source Status Update
Systems: OMA or NOMA?
- Title(参考訳): OMA と NOMA の2元状態更新システムにおける重み付きSum AoI の最小化
- Authors: Jixuan Wang and Deli Qiao
- Abstract要約: 2つの独立したソースは、最大再送信ラウンドの制限の下で、タイムスロットされた方法で、アップデートパケットを共通の宛先ノードに送信する。
ここではブロックフェーディング多重アクセスチャネル(MAC)上で異なる多重アクセススキームが利用される。
オンライン強化学習手法は, ほぼ最適年齢性能を実現するために提案されている。
- 参考スコア(独自算出の注目度): 12.041266020039822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, the minimization of the weighted sum average age of
information (AoI) in a two-source status update communication system is
studied. Two independent sources send update packets to a common destination
node in a time-slotted manner under the limit of maximum retransmission rounds.
Different multiple access schemes, i.e., orthogonal multiple access (OMA) and
non-orthogonal multiple access (NOMA) are exploited here over a block-fading
multiple access channel (MAC). Constrained Markov decision process (CMDP)
problems are formulated to describe the AoI minimization problems considering
both transmission schemes. The Lagrangian method is utilised to convert CMDP
problems to unconstraint Markov decision process (MDP) problems and
corresponding algorithms to derive the power allocation policies are obtained.
On the other hand, for the case of unknown environments, two online
reinforcement learning approaches considering both multiple access schemes are
proposed to achieve near-optimal age performance. Numerical simulations
validate the improvement of the proposed policy in terms of weighted sum AoI
compared to the fixed power transmission policy, and illustrate that NOMA is
more favorable in case of larger packet size.
- Abstract(参考訳): 本稿では,2ソース状態更新通信システムにおける重み付き和平均情報年齢(AoI)の最小化について検討する。
2つの独立したソースは、更新パケットを最大再送ラウンドの制限の下で、タイムスロット方式で共通の宛先ノードに送信する。
ブロックフェード多重アクセスチャネル(MAC)上には、直交多重アクセス(OMA)と非直交多重アクセス(NOMA)という異なる多重アクセススキームが利用される。
両送信方式を考慮したAoI最小化問題を記述するために,制約マルコフ決定過程(CMDP)問題を定式化する。
ラグランジアン法はCMDP問題を非拘束マルコフ決定過程(MDP)問題に変換するために利用され、それに対応するアルゴリズムを用いて配電ポリシーを導出する。
一方、未知環境の場合、複数アクセス方式を考慮した2つのオンライン強化学習手法が提案され、ほぼ最適年齢を達成できる。
数値シミュレーションにより,固定電力伝送方式と比較して重み付けサム・アオイの観点から提案手法の改善が検証され,パケットサイズが大きい場合にはnomaの方が有利であることが示されている。
関連論文リスト
- Two-Stage ML-Guided Decision Rules for Sequential Decision Making under Uncertainty [55.06411438416805]
SDMU (Sequential Decision Making Under Uncertainty) は、エネルギー、金融、サプライチェーンといった多くの領域において、ユビキタスである。
いくつかのSDMUは、自然にマルチステージ問題(MSP)としてモデル化されているが、結果として得られる最適化は、計算の観点からは明らかに困難である。
本稿では,2段階の一般決定規則(TS-GDR)を導入し,線形関数を超えて政策空間を一般化する手法を提案する。
TS-GDRの有効性は、TS-LDR(Two-Stage Deep Decision Rules)と呼ばれるディープリカレントニューラルネットワークを用いたインスタンス化によって実証される。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - Deep Reinforcement Learning for Uplink Scheduling in NOMA-URLLC Networks [7.182684187774442]
本稿では,無線ネットワークにおけるURLLC(Ultra Reliable Low Communications)の問題に対処する。
本稿では,厳密な期限を含む非直交多重アクセス(NOMA)アップリンクURLLCスケジューリング問題を解くために,DRL(Deep Reinforcement Learning)スケジューリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-28T12:18:02Z) - Semi-Infinitely Constrained Markov Decision Processes and Efficient
Reinforcement Learning [17.04643707688075]
通常のCMDPの場合のように、有限個の制約ではなく制約の連続性を考える。
我々はSI-CRLとSI-CPOと呼ぶSICMDPのための2つの強化学習アルゴリズムを考案した。
我々の知る限り、我々は、制約付き強化学習問題を解決するために、半無限プログラミング(SIP)のツールを最初に適用しました。
論文 参考訳(メタデータ) (2023-04-29T12:52:38Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Age of Semantics in Cooperative Communications: To Expedite Simulation
Towards Real via Offline Reinforcement Learning [53.18060442931179]
協調リレー通信システムにおける状態更新のセマンティックス更新度を測定するための意味学年代(AoS)を提案する。
オンライン・ディープ・アクター・クリティック(DAC)学習手法を,政治時間差学習の枠組みに基づいて提案する。
そこで我々は,以前に収集したデータセットから最適制御ポリシーを推定する,新しいオフラインDAC方式を提案する。
論文 参考訳(メタデータ) (2022-09-19T11:55:28Z) - MIX-MAB: Reinforcement Learning-based Resource Allocation Algorithm for
LoRaWAN [6.22984202194369]
本稿では,パケット配信率(PDR)の観点から資源配分アルゴリズムの改善に焦点をあてる。
そこで本稿では,EDが送信パラメータを分散的に設定できる資源割当アルゴリズムを提案する。
数値計算の結果,提案手法は収束時間やPDRの点で既存の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-07T15:50:05Z) - Processing Network Controls via Deep Reinforcement Learning [0.0]
論文は、理論上の正当化と、高度なポリシー勾配アルゴリズムの実用化に関するものである。
政策改善バウンダリは、APGアルゴリズムの理論的正当性において重要な役割を果たす。
論文 参考訳(メタデータ) (2022-05-01T04:34:21Z) - Learning Resilient Radio Resource Management Policies with Graph Neural
Networks [124.89036526192268]
我々は、ユーザ当たりの最小容量制約でレジリエントな無線リソース管理問題を定式化する。
有限個のパラメータ集合を用いてユーザ選択と電力制御ポリシーをパラメータ化できることを示す。
このような適応により,提案手法は平均レートと5番目のパーセンタイルレートとの良好なトレードオフを実現する。
論文 参考訳(メタデータ) (2022-03-07T19:40:39Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Exploration-Exploitation in Constrained MDPs [79.23623305214275]
拘束マルコフ決定過程(CMDP)における探索・探索ジレンマについて検討する。
未知のCMDPで学習している間、エージェントは、MDPに関する新しい情報を見つけるために、トレードオフ探索を行う必要がある。
エージェントは最終的に良い方針や最適な方針を学習するが、学習プロセス中にエージェントが制約に過度に違反することを望まない。
論文 参考訳(メタデータ) (2020-03-04T17:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。