論文の概要: Continual Learning to Generalize Forwarding Strategies for Diverse Mobile Wireless Networks
- arxiv url: http://arxiv.org/abs/2509.23913v1
- Date: Sun, 28 Sep 2025 14:37:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.52898
- Title: Continual Learning to Generalize Forwarding Strategies for Diverse Mobile Wireless Networks
- Title(参考訳): モバイル無線ネットワークにおけるフォワード戦略の一般化のための連続学習
- Authors: Cheonjin Park, Victoria Manfredi, Xiaolan Zhang, Chengyi Liu, Alicia P Wolfe, Dongjin Song, Sarah Tasneem, Bing Wang,
- Abstract要約: 多様なモバイルネットワークシナリオを考慮した一般化可能なベースモデルを構築した。
そして、破滅的な忘れをすることなく、多様なネットワークシナリオでDRLモデルをトレーニングできる連続学習(CL)アプローチを開発します。
最先端のフォワード戦略と比較すると,最大で78%の遅延削減,24%のデリバリ速度向上,および同等あるいはわずかに高いフォワード数を実現している。
- 参考スコア(独自算出の注目度): 12.11851693484118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) has been successfully used to design forwarding strategies for multi-hop mobile wireless networks. While such strategies can be used directly for networks with varied connectivity and dynamic conditions, developing generalizable approaches that are effective on scenarios significantly different from the training environment remains largely unexplored. In this paper, we propose a framework to address the challenge of generalizability by (i) developing a generalizable base model considering diverse mobile network scenarios, and (ii) using the generalizable base model for new scenarios, and when needed, fine-tuning the base model using a small amount of data from the new scenarios. To support this framework, we first design new features to characterize network variation and feature quality, thereby improving the information used in DRL-based forwarding decisions. We then develop a continual learning (CL) approach able to train DRL models across diverse network scenarios without ``catastrophic forgetting.'' Using extensive evaluation, including real-world scenarios in two cities, we show that our approach is generalizable to unseen mobility scenarios. Compared to a state-of-the-art heuristic forwarding strategy, it leads to up to 78% reduction in delay, 24% improvement in delivery rate, and comparable or slightly higher number of forwards.
- Abstract(参考訳): 深部強化学習(DRL)はマルチホップモバイル無線ネットワークのための転送戦略の設計に成功している。
このような戦略は、接続性や動的条件の異なるネットワークに直接適用することができるが、トレーニング環境とは大きく異なるシナリオで有効な一般化可能なアプローチを開発することは、まだ明らかにされていない。
本稿では,一般化可能性の課題に対処する枠組みを提案する。
一 多様なモバイルネットワークシナリオを考慮した一般化可能なベースモデルの構築、及び
(2)新しいシナリオに一般化可能なベースモデルを使用し、必要に応じて、新しいシナリオから少量のデータを使ってベースモデルを微調整する。
このフレームワークをサポートするために、我々はまず、ネットワークの変動と特徴品質を特徴付ける新機能を設計し、DRLベースの転送決定に使用される情報を改善する。
そこで我々は,<catastrophic forgetting</catastrophic forgetting>を使わずに,多様なネットワークシナリオでDRLモデルをトレーニングできる連続学習(CL)アプローチを開発した。
2つの都市における実世界のシナリオを含む広範囲な評価を用いて、我々のアプローチは、見当たらないモビリティシナリオに対して一般化可能であることを示す。
最先端のヒューリスティックな転送戦略と比較すると、最大で78%の遅延削減、24%のデリバリ率の改善、および同等あるいはわずかに高い転送数につながる。
関連論文リスト
- A Wireless Foundation Model for Multi-Task Prediction [50.21098141769079]
多様な予測区間をサポートする無線ネットワークにおけるマルチタスク予測のための統合基盤モデルを提案する。
大規模データセットをトレーニングした後、提案した基礎モデルは、新しいタスクにおいて、目に見えないシナリオとゼロショットのパフォーマンスに強力な一般化を示す。
論文 参考訳(メタデータ) (2025-07-08T12:37:55Z) - World Model-Based Learning for Long-Term Age of Information Minimization in Vehicular Networks [53.98633183204453]
本稿では,車載ネットワークにおけるパケット完全性認識情報(CAoI)の年齢を最小化するために,新しい世界モデルに基づく学習フレームワークを提案する。
mmWave V2X環境の動的モデルを共同で学習し、リンクスケジューリングの方法を学ぶための軌跡を想像するために使用する世界モデルフレームワークを提案する。
特に、長期的な政策は環境相互作用の代わりに、異なる想像軌道で学習される。
論文 参考訳(メタデータ) (2025-05-03T06:23:18Z) - DRL Optimization Trajectory Generation via Wireless Network Intent-Guided Diffusion Models for Optimizing Resource Allocation [58.62766376631344]
本稿では、無線通信ネットワークの異なる状態変化に対応するために、カスタマイズされた無線ネットワークインテント(WNI-G)モデルを提案する。
大規模シミュレーションにより、動的通信システムにおけるスペクトル効率と従来のDRLモデルの変動の安定性が向上する。
論文 参考訳(メタデータ) (2024-10-18T14:04:38Z) - Improving the generalizability and robustness of large-scale traffic
signal control [3.8028221877086814]
交通信号の制御における深部強化学習(RL)アプローチの堅牢性について検討する。
欠落したデータに対して,近年の手法が脆弱なままであることを示す。
政策アンサンブルによる分散強化学習とバニラ強化学習の組み合わせを提案する。
論文 参考訳(メタデータ) (2023-06-02T21:30:44Z) - Learning an Adaptive Forwarding Strategy for Mobile Wireless Networks:
Resource Usage vs. Latency [2.608874253011]
我々は、モバイルネットワークのためのスケーラブルで汎用的な単一コピールーティング戦略を学ぶために、深層強化学習を使用します。
我々の学習した単一コピールーティング戦略は、最適戦略を除いて遅延の点で他のすべての戦略より優れていることを示す。
論文 参考訳(メタデータ) (2022-07-23T01:17:23Z) - Reinforcement Learning for Datacenter Congestion Control [50.225885814524304]
渋滞制御アルゴリズムの成功は、レイテンシとネットワーク全体のスループットを劇的に改善する。
今日まで、このような学習ベースのアルゴリズムはこの領域で実用的な可能性を示さなかった。
実世界のデータセンターネットワークの様々な構成に一般化することを目的としたRLに基づくアルゴリズムを考案する。
本稿では,この手法が他のRL手法よりも優れており,トレーニング中に見られなかったシナリオに一般化可能であることを示す。
論文 参考訳(メタデータ) (2021-02-18T13:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。