論文の概要: UAV Base Station Trajectory Optimization Based on Reinforcement Learning
in Post-disaster Search and Rescue Operations
- arxiv url: http://arxiv.org/abs/2202.10338v1
- Date: Thu, 17 Feb 2022 11:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:53:51.235570
- Title: UAV Base Station Trajectory Optimization Based on Reinforcement Learning
in Post-disaster Search and Rescue Operations
- Title(参考訳): 災害後の探索・救助作業における強化学習に基づくUAV基地局軌道最適化
- Authors: Shiye Zhao, Kaoru Ota, Mianxiong Dong
- Abstract要約: 災害のため、地上基地局(TBS)は部分的にクラッシュする。一部のユーザ機器(UE)は保存されない。無人航空機(UAV)を航空基地局として配備することは、UEを迅速にカバーする方法である。
本稿では,航空基地局として利用可能なTBSと協調してUAVを配備する方法を提案する。
- 参考スコア(独自算出の注目度): 16.619839349229437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Because of disaster, terrestrial base stations (TBS) would be partly crashed.
Some user equipments (UE) would be unserved. Deploying unmanned aerial vehicles
(UAV) as aerial base stations is a method to cover UEs quickly. But existing
methods solely refer to the coverage of UAVs. In those scenarios, they focus on
the deployment of UAVs in the post-disaster area where all TBSs do not work any
longer. There is limited research about the combination of available TBSs and
UAVs. We propose the method to deploy UAVs cooperating with available TBSs as
aerial base stations. And improve the coverage by reinforcement learning.
Besides, in the experiments, we cluster UEs with balanced iterative reducing
and clustering using hierarchies (BIRCH) at first. Finally, achieve base
stations' better coverage to UEs through Q-learning.
- Abstract(参考訳): 災害のため、地上基地局(TBS)は部分的にクラッシュした。
一部のユーザー機器(UE)は保存されていない。
無人航空機(UAV)を航空基地局として配置することは、UEを迅速にカバーする方法である。
しかし、既存の方法はUAVのカバレッジのみを指す。
これらのシナリオでは、すべてのTBSがもはや機能しないディスカスター後の領域におけるUAVの展開に重点を置いている。
TBSとUAVの組み合わせに関する限られた研究がある。
本稿では,航空基地局として利用可能なTBSと協調してUAVを配備する手法を提案する。
強化学習によってカバー範囲を改善します
さらに,実験では,まず階層構造(BIRCH)を用いて反復還元とクラスタリングのバランスをとるUEをクラスタリングした。
最後に、Qラーニングを通じて基地局のUEに対するより良いカバレッジを達成する。
関連論文リスト
- Movable Antenna-Equipped UAV for Data Collection in Backscatter Sensor Networks: A Deep Reinforcement Learning-based Approach [10.115361454176773]
無人航空機(UAV)は遠隔後方散乱装置(BD)からの柔軟なデータ収集を可能にする
指向性と柔軟性の高い指向性移動アンテナ(MA)をUAVに搭載することを検討する。
我々は,UAVと各BD間の方位角と距離を用いた深部強化学習(DRL)に基づく戦略を開発し,エージェントの観測空間を簡素化する。
論文 参考訳(メタデータ) (2024-11-21T09:34:48Z) - Evidential Detection and Tracking Collaboration: New Problem, Benchmark
and Algorithm for Robust Anti-UAV System [56.51247807483176]
無人航空機(UAV)は輸送、監視、軍事など多くの地域で広く使われている。
従来は、UAVの先行情報が常に提供されていた追跡問題として、このようなアンチUAVタスクを単純化していた。
本稿では,従来のUAV情報を含まない複雑な場面において,UAVの認識を特徴とする新しい実用的対UAV問題を初めて定式化する。
論文 参考訳(メタデータ) (2023-06-27T19:30:23Z) - UAV Obstacle Avoidance by Human-in-the-Loop Reinforcement in Arbitrary
3D Environment [17.531224704021273]
本稿では, 深部強化学習に基づく無人航空機(UAV)の連続制御に着目した。
本稿では,UAVが飛行中の障害物を自動的に回避できる深層強化学習(DRL)法を提案する。
論文 参考訳(メタデータ) (2023-04-07T01:44:05Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - 3D UAV Trajectory and Data Collection Optimisation via Deep
Reinforcement Learning [75.78929539923749]
無人航空機(UAV)は現在、無線通信におけるネットワーク性能とカバレッジを高めるために配備され始めている。
UAV支援モノのインターネット(IoT)のための最適な資源配分方式を得ることは困難である
本稿では,UAVの最も短い飛行経路に依存しつつ,IoTデバイスから収集したデータ量を最大化しながら,新しいUAV支援IoTシステムを設計する。
論文 参考訳(メタデータ) (2021-06-06T14:08:41Z) - Attention-based Reinforcement Learning for Real-Time UAV Semantic
Communication [53.46235596543596]
移動地利用者に対する空対地超信頼性・低遅延通信(URLLC)の問題点について検討する。
グラフアテンション交換ネットワーク(GAXNet)を用いたマルチエージェント深層強化学習フレームワークを提案する。
GAXNetは、最先端のベースラインフレームワークと比較して、0.0000001エラー率で6.5倍のレイテンシを実現している。
論文 参考訳(メタデータ) (2021-05-22T12:43:25Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Reinforcement Learning-based Joint Path and Energy Optimization of
Cellular-Connected Unmanned Aerial Vehicles [0.0]
バッテリーの充電を考慮し、長いミッションでUAVの問題を解決するため、我々は典型的な短距離経路プランナーを階層的に拡張するために強化学習(RL)を用いてきた。
この問題は、広範囲を飛行するUAVに対してシミュレートされ、Qラーニングアルゴリズムにより、UAVが最適な経路と充電ポリシーを見つけることができる。
論文 参考訳(メタデータ) (2020-11-27T14:16:55Z) - Federated Learning for Cellular-connected UAVs: Radio Mapping and Path
Planning [2.4366811507669124]
本稿では,UAVの走行時間を最小化し,確率的接続制約を満たすことを保証する。
UAVは異なるミッションを持ち、異なるエリアを飛行するため、収集されたデータはネットワークの接続に関するローカル情報を運ぶ。
最初のステップでは、UAVは環境の停止確率のグローバルモデルを構築します。
第2ステップでは、第1ステップで得られた大域的モデルと高速探索型ランダムツリー(RRT)を用いて、UAVの経路を最適化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-23T14:55:37Z) - Simultaneous Navigation and Radio Mapping for Cellular-Connected UAV
with Deep Reinforcement Learning [46.55077580093577]
空のUAVに対して、ユビキタスな3Dコミュニケーションを実現するには、新しい課題だ。
本稿では,UAVの制御可能な移動性を利用して航法・軌道を設計する新しい航法手法を提案する。
そこで我々は,UAVの信号計測を深部Qネットワークのトレーニングに用いるSNARM (Concurrent Navigation and Radio Mapping) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T08:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。