論文の概要: Scalable Deep Reinforcement Learning for Routing and Spectrum Access in
Physical Layer
- arxiv url: http://arxiv.org/abs/2012.11783v1
- Date: Tue, 22 Dec 2020 01:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:35:25.548932
- Title: Scalable Deep Reinforcement Learning for Routing and Spectrum Access in
Physical Layer
- Title(参考訳): 物理層におけるルーティングとスペクトルアクセスのためのスケーラブル深層強化学習
- Authors: Wei Cui and Wei Yu
- Abstract要約: 無線アドホックネットワークにおける同時ルーティングとスペクトルアクセスのための新しい強化学習手法を提案する。
単一のエージェントは、各フローのフロンティアノードに沿って移動すると、すべてのルーティングとスペクトラムアクセスの決定を行います。
提案した深層強化学習戦略は,リンク間の相互干渉を考慮できる。
- 参考スコア(独自算出の注目度): 12.018165291620164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel and scalable reinforcement learning approach for
simultaneous routing and spectrum access in wireless ad-hoc networks. In most
previous works on reinforcement learning for network optimization, routing and
spectrum access are tackled as separate tasks; further, the wireless links in
the network are assumed to be fixed, and a different agent is trained for each
transmission node -- this limits scalability and generalizability. In this
paper, we account for the inherent signal-to-interference-plus-noise ratio
(SINR) in the physical layer and propose a more scalable approach in which a
single agent is associated with each flow. Specifically, a single agent makes
all routing and spectrum access decisions as it moves along the frontier nodes
of each flow. The agent is trained according to the physical layer
characteristics of the environment using the future bottleneck SINR as a novel
reward definition. This allows a highly effective routing strategy based on the
geographic locations of the nodes in the wireless ad-hoc network. The proposed
deep reinforcement learning strategy is capable of accounting for the mutual
interference between the links. It learns to avoid interference by
intelligently allocating spectrum slots and making routing decisions for the
entire network in a scalable manner.
- Abstract(参考訳): 本稿では,無線アドホックネットワークにおける同時ルーティングとスペクトルアクセスのための新しいスケーラブルな強化学習手法を提案する。
ネットワーク最適化のための強化学習において、ルーティングとスペクトルアクセスは別個のタスクとして取り組まれている。さらに、ネットワーク内の無線リンクは修正され、各送信ノードに対して異なるエージェントがトレーニングされる。
本稿では,物理層内の信号-干渉-余剰雑音比(SINR)について考察し,単一エージェントが各フローに関連付けられたよりスケーラブルなアプローチを提案する。
具体的には、単一のエージェントが各フローのフロンティアノードに沿って移動するとき、すべてのルーティングとスペクトルアクセスを決定する。
エージェントは、将来のボトルネックSINRを新たな報酬定義として利用して、環境の物理層特性に応じて訓練される。
これにより、無線アドホックネットワーク内のノードの地理的位置に基づく、極めて効果的なルーティング戦略が可能になる。
提案した深層強化学習戦略は,リンク間の相互干渉を考慮できる。
スペクトルスロットをインテリジェントに割り当て、ネットワーク全体のルーティング決定をスケーラブルにすることで、干渉を避けることができる。
関連論文リスト
- SINR-Aware Deep Reinforcement Learning for Distributed Dynamic Channel
Allocation in Cognitive Interference Networks [10.514231683620517]
本稿では,複数の大規模ネットワークによるキャリヤ間干渉(ICI)とチャネル再利用を経験する実世界のシステムに焦点を当てる。
CARLTON(Channel Allocation RL To Overlapped Networks)と呼ばれる分散DCAのための新しいマルチエージェント強化学習フレームワークを提案する。
本結果は,従来の最先端手法に比べて優れた効率性を示し,優れた性能とロバストな一般化を示した。
論文 参考訳(メタデータ) (2024-02-17T20:03:02Z) - A Novel Reinforcement Learning Routing Algorithm for Congestion Control
in Complex Networks [0.0]
本稿では,最短経路アルゴリズムに基づく渋滞制御と経路長最適化という,強化学習を活用するルーティングアルゴリズムを提案する。
提案手法は,バラビ・アルベルトスケールフリーネットワークだけでなく,Watts-Strogatz (小世界) や Erd"os-R'enyi (ランダムネットワーク) などのネットワークモデルでも有効であることを示す。
論文 参考訳(メタデータ) (2023-12-30T18:21:13Z) - Hierarchical Multi-Marginal Optimal Transport for Network Alignment [52.206006379563306]
マルチネットワークアライメントは,複数ネットワーク上での協調学習に必須の要件である。
マルチネットワークアライメントのための階層型マルチマージ最適トランスポートフレームワークHOTを提案する。
提案するHOTは,有効性とスケーラビリティの両面で,最先端の大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-10-06T02:35:35Z) - Label-free Deep Learning Driven Secure Access Selection in
Space-Air-Ground Integrated Networks [26.225658457052834]
宇宙空間統合ネットワーク(SAGIN)では、固有のオープン性と広範な放送範囲が、これらのネットワークを盗聴の脅威に晒している。
異種資源と異なる盗聴モデルの両方により、秘密指向のアクセス戦略を実行することは困難である。
本稿では,Q-network を用いたディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T06:48:06Z) - Multi-agent Reinforcement Learning with Graph Q-Networks for Antenna
Tuning [60.94661435297309]
モバイルネットワークの規模は、手作業による介入や手作業による戦略を使ってアンテナパラメータの最適化を困難にしている。
本研究では,モバイルネットワーク構成をグローバルに最適化するマルチエージェント強化学習アルゴリズムを提案する。
シミュレーション環境におけるアンテナ傾き調整問題とジョイント傾き・電力制御問題に対するアルゴリズムの性能を実証的に示す。
論文 参考訳(メタデータ) (2023-01-20T17:06:34Z) - Artificial Intelligence Empowered Multiple Access for Ultra Reliable and
Low Latency THz Wireless Networks [76.89730672544216]
テラヘルツ(THz)無線ネットワークは、第5世代(B5G)以上の時代を触媒すると予想されている。
いくつかのB5Gアプリケーションの超信頼性と低レイテンシ要求を満たすためには、新しいモビリティ管理アプローチが必要である。
本稿では、インテリジェントなユーザアソシエーションとリソースアロケーションを実現するとともに、フレキシブルで適応的なモビリティ管理を可能にする、全体論的MAC層アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:00:24Z) - Learning an Adaptive Forwarding Strategy for Mobile Wireless Networks:
Resource Usage vs. Latency [2.608874253011]
我々は、モバイルネットワークのためのスケーラブルで汎用的な単一コピールーティング戦略を学ぶために、深層強化学習を使用します。
我々の学習した単一コピールーティング戦略は、最適戦略を除いて遅延の点で他のすべての戦略より優れていることを示す。
論文 参考訳(メタデータ) (2022-07-23T01:17:23Z) - Packet Routing with Graph Attention Multi-agent Reinforcement Learning [4.78921052969006]
我々は強化学習(RL)を利用したモデルフリーでデータ駆動型ルーティング戦略を開発する。
ネットワークトポロジのグラフ特性を考慮すると、グラフニューラルネットワーク(GNN)と組み合わせたマルチエージェントRLフレームワークを設計する。
論文 参考訳(メタデータ) (2021-07-28T06:20:34Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - On Topology Optimization and Routing in Integrated Access and Backhaul
Networks: A Genetic Algorithm-based Approach [70.85399600288737]
IABネットワークにおけるトポロジ最適化とルーティングの問題について検討する。
我々は、IABノード配置と非IABバックホールリンク分布の両方に効率的な遺伝的アルゴリズムベースのスキームを開発する。
メッシュベースのIABネットワークを実現する上での課題について論じる。
論文 参考訳(メタデータ) (2021-02-14T21:52:05Z) - Cognitive Radio Network Throughput Maximization with Deep Reinforcement
Learning [58.44609538048923]
RF-CRN(Radio Frequency powered Cognitive Radio Networks)は、IoT(Internet of Things)などの最新のネットワークの目と耳である可能性が高い。
自律的と考えるには、RF駆動のネットワークエンティティは、ネットワーク環境の不確実性の下でネットワークスループットを最大化するために、ローカルで決定する必要がある。
本稿では,この欠点を克服し,無線ゲートウェイがネットワークスループットを最大化するための最適なポリシーを導出できるように,深層強化学習を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。