論文の概要: Actor-Critic Scheduling for Path-Aware Air-to-Ground Multipath
Multimedia Delivery
- arxiv url: http://arxiv.org/abs/2204.13343v1
- Date: Thu, 28 Apr 2022 08:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 15:30:34.375757
- Title: Actor-Critic Scheduling for Path-Aware Air-to-Ground Multipath
Multimedia Delivery
- Title(参考訳): 経路対応型マルチパスマルチメディア配信のためのアクタクリティカルスケジューリング
- Authors: Achilles Machumilane, Alberto Gotta, Pietro Cassar\`a, Claudio
Gennaro, and Giuseppe Amato
- Abstract要約: Actor-Critic (AC) RLアルゴリズムに基づくマルチパスシステムにおけるリアルタイムマルチメディア配信のための新しいスケジューラを提案する。
RLエージェントとして機能するスケジューラは、経路選択、経路レート割り当て、フロー保護のための冗長性推定のための最適ポリシーをリアルタイムで学習する。
- 参考スコア(独自算出の注目度): 5.01187288554981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL) has recently found wide applications in network
traffic management and control because some of its variants do not require
prior knowledge of network models. In this paper, we present a novel scheduler
for real-time multimedia delivery in multipath systems based on an Actor-Critic
(AC) RL algorithm. We focus on a challenging scenario of real-time video
streaming from an Unmanned Aerial Vehicle (UAV) using multiple wireless paths.
The scheduler acting as an RL agent learns in real-time the optimal policy for
path selection, path rate allocation and redundancy estimation for flow
protection. The scheduler, implemented as a module of the GStreamer framework,
can be used in real or simulated settings. The simulation results show that our
scheduler can target a very low loss rate at the receiver by dynamically
adapting in real-time the scheduling policy to the path conditions without
performing training or relying on prior knowledge of network channel models.
- Abstract(参考訳): 強化学習(rl)は、ネットワークトラフィック管理や制御において、ネットワークモデルの事前知識を必要としないため、広く応用されている。
本稿では,Actor-Critic (AC) RLアルゴリズムに基づくマルチパスシステムにおけるリアルタイムマルチメディア配信のための新しいスケジューラを提案する。
我々は,複数の無線経路を用いた無人航空機(uav)からのリアルタイムビデオストリーミングの難易度に注目する。
rlエージェントとして機能するスケジューラは、経路選択の最適ポリシー、経路レート割り当て、フロー保護の冗長性推定をリアルタイムに学習する。
GStreamerフレームワークのモジュールとして実装されたスケジューラは、実またはシミュレートされた設定で使用することができる。
シミュレーションの結果,ネットワークチャネルモデルの事前知識に頼らずに,スケジューリングポリシーを経路条件に動的に適応させることにより,スケジューラは受信機において非常に低い損失率を目標とできることがわかった。
関連論文リスト
- Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - An open source Multi-Agent Deep Reinforcement Learning Routing Simulator for satellite networks [7.635788661450053]
本稿では,低軌道衛星コンステレーション(LSatC)におけるパケットルーティングのためのオープンソースシミュレータを提案する。
Pythonで実装されたシミュレータは、従来のDijkstraベースのルーティングと、より高度な学習ソリューションをサポートする。
その結果、Reinforcement Learning(RL)ベースのルーティングポリシを使用して、エンドツーエンド(E2E)のレイテンシを大幅に改善した。
論文 参考訳(メタデータ) (2024-07-08T13:09:12Z) - A Deep Reinforcement Learning Approach for Adaptive Traffic Routing in
Next-gen Networks [1.1586742546971471]
次世代ネットワークは、トラフィックダイナミクスに基づいたネットワーク構成を自動化し、適応的に調整する必要がある。
交通政策を決定する伝統的な手法は、通常は手作りのプログラミング最適化とアルゴリズムに基づいている。
我々は適応的なトラフィックルーティングのための深層強化学習(DRL)アプローチを開発する。
論文 参考訳(メタデータ) (2024-02-07T01:48:29Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Dynamic Multichannel Access via Multi-agent Reinforcement Learning:
Throughput and Fairness Guarantees [9.615742794292943]
マルチエージェント強化学習(RL)に基づく分散マルチチャネルアクセスプロトコルを提案する。
チャネルアクセス確率を各時間スロットで調整する従来の手法とは異なり、提案したRLアルゴリズムは、連続する時間スロットに対する一連のチャネルアクセスポリシーを決定論的に選択する。
我々は,現実的な交通環境において広範なシミュレーションを行い,提案したオンライン学習がスループットと公平性の両方を改善することを示す。
論文 参考訳(メタデータ) (2021-05-10T02:32:57Z) - Better than the Best: Gradient-based Improper Reinforcement Learning for
Network Scheduling [60.48359567964899]
パケット遅延を最小限に抑えるため,制約付き待ち行列ネットワークにおけるスケジューリングの問題を考える。
我々は、利用可能な原子ポリシーよりも優れたスケジューラを生成するポリシー勾配に基づく強化学習アルゴリズムを使用する。
論文 参考訳(メタデータ) (2021-05-01T10:18:34Z) - Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks [18.04856086228028]
深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
論文 参考訳(メタデータ) (2021-03-22T02:09:16Z) - Scheduling and Power Control for Wireless Multicast Systems via Deep
Reinforcement Learning [33.737301955006345]
無線システムにおけるマルチキャストは、コンテンツ中心ネットワークにおけるユーザ要求の冗長性を利用する方法である。
電力制御と最適スケジューリングは、衰退中の無線マルチキャストネットワークの性能を著しく向上させることができる。
提案手法により, 大規模システムに対して, 電力制御ポリシを学習可能であることを示す。
論文 参考訳(メタデータ) (2020-09-27T15:59:44Z) - Multi-Agent Routing Value Iteration Network [88.38796921838203]
疎結合グラフの学習値に基づいてマルチエージェントルーティングを行うことができるグラフニューラルネットワークに基づくモデルを提案する。
最大25ノードのグラフ上で2つのエージェントでトレーニングしたモデルでは,より多くのエージェントやノードを持つ状況に容易に一般化できることが示されている。
論文 参考訳(メタデータ) (2020-07-09T22:16:45Z) - Online Reinforcement Learning Control by Direct Heuristic Dynamic
Programming: from Time-Driven to Event-Driven [80.94390916562179]
時間駆動学習は、新しいデータが到着すると予測モデルのパラメータを継続的に更新する機械学習手法を指す。
ノイズなどの重要なシステムイベントによる時間駆動型dHDPの更新を防止することが望ましい。
イベント駆動型dHDPアルゴリズムは,従来の時間駆動型dHDPと比較して動作することを示す。
論文 参考訳(メタデータ) (2020-06-16T05:51:25Z) - Meta-Reinforcement Learning for Trajectory Design in Wireless UAV
Networks [151.65541208130995]
ドローン基地局(DBS)は、要求が動的で予測不可能な地上ユーザーへのアップリンク接続を提供するために派遣される。
この場合、DBSの軌道は動的ユーザアクセス要求を満たすように適応的に調整されなければならない。
新たな環境に遭遇したDBSの軌道に適応するために,メタラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-25T20:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。