論文の概要: Robust Network Slicing: Multi-Agent Policies, Adversarial Attacks, and
Defensive Strategies
- arxiv url: http://arxiv.org/abs/2311.11206v1
- Date: Sun, 19 Nov 2023 03:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 06:57:53.165821
- Title: Robust Network Slicing: Multi-Agent Policies, Adversarial Attacks, and
Defensive Strategies
- Title(参考訳): ロバストなネットワークスライシング:マルチエージェントポリシー、敵対的攻撃、防御戦略
- Authors: Feng Wang, M. Cenk Gursoy, and Senem Velipasalar
- Abstract要約: 本稿では,複数の基地局とユーザを持つ動的環境下でのネットワークスライシングのためのマルチエージェント深層強化学習フレームワークを提案する。
プリミティブな事前情報と限られた電力予算を備えた深部RLベースのジャマを開発する。
提案手法は,ネットワークスライシングポリシーに関する直接的なフィードバックや事前知識を必要とせずに,被害者のパフォーマンスを著しく低減できることを示す。
- 参考スコア(独自算出の注目度): 11.308544280789016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a multi-agent deep reinforcement learning (deep RL)
framework for network slicing in a dynamic environment with multiple base
stations and multiple users. In particular, we propose a novel deep RL
framework with multiple actors and centralized critic (MACC) in which actors
are implemented as pointer networks to fit the varying dimension of input. We
evaluate the performance of the proposed deep RL algorithm via simulations to
demonstrate its effectiveness. Subsequently, we develop a deep RL based jammer
with limited prior information and limited power budget. The goal of the jammer
is to minimize the transmission rates achieved with network slicing and thus
degrade the network slicing agents' performance. We design a jammer with both
listening and jamming phases and address jamming location optimization as well
as jamming channel optimization via deep RL. We evaluate the jammer at the
optimized location, generating interference attacks in the optimized set of
channels by switching between the jamming phase and listening phase. We show
that the proposed jammer can significantly reduce the victims' performance
without direct feedback or prior knowledge on the network slicing policies.
Finally, we devise a Nash-equilibrium-supervised policy ensemble mixed strategy
profile for network slicing (as a defensive measure) and jamming. We evaluate
the performance of the proposed policy ensemble algorithm by applying on the
network slicing agents and the jammer agent in simulations to show its
effectiveness.
- Abstract(参考訳): 本稿では,複数の基地局と複数のユーザを持つ動的環境下でのネットワークスライシングのためのマルチエージェント深層強化学習(deep RL)フレームワークを提案する。
特に,複数のアクタと集中型批評家(MACC)を備えた新しいディープRLフレームワークを提案し,アクタをポインタネットワークとして実装し,入力の異なる次元に適合させる。
提案するdeep rlアルゴリズムの性能をシミュレーションにより評価し,その効果を示す。
その後,先行情報と電力予算の制限を伴う深いrlベースのジャマーを開発した。
妨害者の目標は、ネットワークスライシングによって達成される伝送速度を最小化し、ネットワークスライシングエージェントの性能を低下させることである。
我々は、深いRLによるチャンネル最適化と同様に、聴取位相とジャミング位相の両方でジャマーを設計し、ジャミング位置最適化に対処する。
我々は、ジャミングフェーズとリスニングフェーズを切り替えることで、最適化位置でのジャマーの評価を行い、最適化されたチャネルセットにおける干渉攻撃を生成する。
提案手法は,ネットワークスライシングポリシーに関する直接的なフィードバックや事前知識を必要とせずに,被害者のパフォーマンスを著しく低減できることを示す。
最後に,ネットワークスライシング(防御手段として)とジャミングのためのnash平衡教師付きポリシアンサンブル混合戦略プロファイルを考案する。
本研究では,ネットワークスライシングエージェントとジャムマーエージェントを用いて,提案アルゴリズムの性能評価を行い,その有効性を示す。
関連論文リスト
- Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - SINR-Aware Deep Reinforcement Learning for Distributed Dynamic Channel
Allocation in Cognitive Interference Networks [10.514231683620517]
本稿では,複数の大規模ネットワークによるキャリヤ間干渉(ICI)とチャネル再利用を経験する実世界のシステムに焦点を当てる。
CARLTON(Channel Allocation RL To Overlapped Networks)と呼ばれる分散DCAのための新しいマルチエージェント強化学習フレームワークを提案する。
本結果は,従来の最先端手法に比べて優れた効率性を示し,優れた性能とロバストな一般化を示した。
論文 参考訳(メタデータ) (2024-02-17T20:03:02Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - DeepMPR: Enhancing Opportunistic Routing in Wireless Networks through
Multi-Agent Deep Reinforcement Learning [0.5818726765408144]
機会的ルーティングは、無線ネットワークのブロードキャスト能力に依存する。
ブロードキャストのコストを削減するため、マルチキャストルーティングスキームはネットワークオーバーヘッドを減らすためにコネクテッド・ドミネーション・セット(CDS)またはマルチポイント・リレー・セット(MPR)を使用する。
一般的なMPR選択アルゴリズムは、ノード間の調整に依存し、大規模ネットワークには高い計算能力を必要とし、ネットワークの不確実性にチューニングすることが困難である。
本稿では,OLSR MPR選択アルゴリズムよりも優れた新しいMPRマルチキャストルーティング手法であるDeepMPRを設計するために,マルチエージェントディープ強化学習を用いる。
論文 参考訳(メタデータ) (2023-06-16T05:53:42Z) - DRL Enabled Coverage and Capacity Optimization in STAR-RIS Assisted
Networks [55.0821435415241]
無線通信における新たなパラダイムとして,STAR-RISのカバレッジとキャパシティ性能の分析が不可欠だが難しい。
STAR-RIS支援ネットワークにおけるカバレッジとキャパシティ最適化の問題を解決するために,多目的ポリシー最適化(MO-PPO)アルゴリズムを提案する。
MO-PPOアルゴリズムの性能向上のために、アクション値ベースの更新戦略(AVUS)と損失関数ベースの更新戦略(LFUS)の2つの更新戦略を検討した。
論文 参考訳(メタデータ) (2022-09-01T14:54:36Z) - Provably Efficient Reinforcement Learning for Online Adaptive Influence
Maximization [53.11458949694947]
本稿では,リアルタイムフィードバックに基づいてシードノードを逐次活性化する,コンテンツ依存型オンライン影響問題の適応バージョンについて検討する。
提案アルゴリズムは,最適政策を楽観的に改善しつつ,ネットワークモデルの推定を保守し,適応的にシードを選択する。
論文 参考訳(メタデータ) (2022-06-29T18:17:28Z) - Coverage and Capacity Optimization in STAR-RISs Assisted Networks: A
Machine Learning Approach [102.00221938474344]
再構成可能なインテリジェントサーフェス (STAR-RIS) アシストネットワークを同時に送信および反射するカバレッジとキャパシティ最適化のための新しいモデルを提案する。
損失関数ベースの更新戦略はコアポイントであり、各更新時にmin-normソルバによってカバレッジとキャパシティの両方の損失関数の重みを計算することができる。
解析結果から,提案手法は固定重みに基づくMOアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-04-13T13:52:22Z) - CATRO: Channel Pruning via Class-Aware Trace Ratio Optimization [61.71504948770445]
本稿では,CATRO (Class-Aware Trace Ratio Optimization) を用いた新しいチャネルプルーニング手法を提案する。
CATROは、他の最先端チャネルプルーニングアルゴリズムと同等の精度で、同様のコストまたは低コストで高い精度を達成できることを示す。
CATROは、クラス認識の特性のため、様々な分類サブタスクに適応的に効率の良いネットワークを創り出すのに適している。
論文 参考訳(メタデータ) (2021-10-21T06:26:31Z) - Structure-aware reinforcement learning for node-overload protection in
mobile edge computing [3.3865605512957457]
本研究は,エッジノードの過負荷を防止するための適応型入出力制御ポリシーを提案する。
このフレームワークは,ノードオーバーロード保護問題に対して,割引価格設定で動作するように拡張する。
実験により, SALMUTにより得られた全割引コストは, 最先端の深部RLアルゴリズムに類似していることが判明した。
論文 参考訳(メタデータ) (2021-06-29T18:11:41Z) - Dynamic RAN Slicing for Service-Oriented Vehicular Networks via
Constrained Learning [40.5603189901241]
品質の異なる車両用インターネット(IoV)サービスにおける無線アクセスネットワーク(RAN)スライシング問題について検討する。
無線スペクトルと演算資源を動的に割り当てる動的RANスライシングフレームワークを提案する。
RAWSは,ベンチマークと比較すると,要求を高い確率で満たしながら,システムコストを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2020-12-03T15:08:38Z) - Pareto Deterministic Policy Gradients and Its Application in 5G Massive
MIMO Networks [32.099949375036495]
我々は,強化学習(RL)アプローチを用いて,セルロードバランスとネットワークスループットを協調的に最適化することを検討する。
RLの背景にある理論的根拠は、ユーザモビリティとネットワークのダイナミクスを解析的にモデル化することの難しさを回避することである。
この共同最適化を実現するために、ベクトル報酬をRL値ネットワークに統合し、別々のポリシーネットワークを介してRLアクションを実行する。
論文 参考訳(メタデータ) (2020-12-02T15:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。