論文の概要: Deep Reinforcement Learning for Task Offloading in UAV-Aided Smart Farm
Networks
- arxiv url: http://arxiv.org/abs/2209.07367v1
- Date: Thu, 15 Sep 2022 15:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:23:29.388420
- Title: Deep Reinforcement Learning for Task Offloading in UAV-Aided Smart Farm
Networks
- Title(参考訳): UAV支援スマートファームネットワークにおけるタスクオフロードの深層強化学習
- Authors: Anne Catherine Nguyen, Turgay Pamuklu, Aisha Syed, W. Sean Kennedy,
Melike Erol-Kantarci
- Abstract要約: 我々は、この多目的問題を解決するために、Deep Q-Learning(DQL)アプローチを導入する。
提案手法は,UAVの残量と期限違反率に関して,同等の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 3.6118662460334527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fifth and sixth generations of wireless communication networks are
enabling tools such as internet of things devices, unmanned aerial vehicles
(UAVs), and artificial intelligence, to improve the agricultural landscape
using a network of devices to automatically monitor farmlands. Surveying a
large area requires performing a lot of image classification tasks within a
specific period of time in order to prevent damage to the farm in case of an
incident, such as fire or flood. UAVs have limited energy and computing power,
and may not be able to perform all of the intense image classification tasks
locally and within an appropriate amount of time. Hence, it is assumed that the
UAVs are able to partially offload their workload to nearby multi-access edge
computing devices. The UAVs need a decision-making algorithm that will decide
where the tasks will be performed, while also considering the time constraints
and energy level of the other UAVs in the network. In this paper, we introduce
a Deep Q-Learning (DQL) approach to solve this multi-objective problem. The
proposed method is compared with Q-Learning and three heuristic baselines, and
the simulation results show that our proposed DQL-based method achieves
comparable results when it comes to the UAVs' remaining battery levels and
percentage of deadline violations. In addition, our method is able to reach
convergence 13 times faster than Q-Learning.
- Abstract(参考訳): 第5世代と第6世代の無線通信ネットワークは、物のインターネット、無人航空機(UAV)、人工知能などのツールを、デバイスのネットワークを使って農地を自動的に監視する農業の景観を改善する。
広い範囲を調査するには、火災や洪水などの事故で農地が被害を受けるのを防ぐために、特定の期間内に多くの画像分類タスクを実行する必要がある。
UAVは限られたエネルギーと計算能力を持ち、局所的かつ適切な時間内に画像分類タスクを全て実行できない可能性がある。
したがって、UAVは作業負荷の一部を近くのマルチアクセスエッジコンピューティングデバイスにオフロードすることができると仮定される。
UAVは、ネットワーク内の他のUAVの時間制約とエネルギーレベルを考慮して、タスクがどこで実行されるかを決定する決定アルゴリズムが必要である。
本稿では,この多目的問題を解決するために,Deep Q-Learning (DQL) アプローチを提案する。
提案手法をq-learningと3つのヒューリスティックベースラインと比較し,提案手法がuavsの残バッテリーレベルと期限違反率において同等の結果を得たことを示す。
また,本手法はq-learningよりも13倍高速に収束できる。
関連論文リスト
- Multi-Agent Reinforcement Learning for Offloading Cellular Communications with Cooperating UAVs [21.195346908715972]
無人航空機は、地上のBSからデータトラフィックをオフロードする代替手段を提供する。
本稿では,地上BSからデータオフロードを行うために,複数のUAVを効率的に利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-05T12:36:08Z) - Hardware Acceleration for Real-Time Wildfire Detection Onboard Drone
Networks [6.313148708539912]
遠隔地や森林地帯での山火事の検出は 破壊と生態系の保全を 最小化するのに不可欠です
ドローンは、高度な撮像技術を備えた、リモートで困難な地形へのアジャイルアクセスを提供する。
限られた計算とバッテリリソースは、画像分類モデルの実装と効率的な実装に困難をもたらす。
本稿では,リアルタイム画像分類と火災分断モデルの構築を目的とする。
論文 参考訳(メタデータ) (2024-01-16T04:16:46Z) - Multi-Objective Optimization for UAV Swarm-Assisted IoT with Virtual
Antenna Arrays [55.736718475856726]
無人航空機(UAV)ネットワークはIoT(Internet-of-Things)を支援するための有望な技術である
既存のUAV支援データ収集および普及スキームでは、UAVはIoTとアクセスポイントの間を頻繁に飛行する必要がある。
協調ビームフォーミングをIoTとUAVに同時に導入し、エネルギーと時間効率のデータ収集と普及を実現した。
論文 参考訳(メタデータ) (2023-08-03T02:49:50Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - 3D UAV Trajectory and Data Collection Optimisation via Deep
Reinforcement Learning [75.78929539923749]
無人航空機(UAV)は現在、無線通信におけるネットワーク性能とカバレッジを高めるために配備され始めている。
UAV支援モノのインターネット(IoT)のための最適な資源配分方式を得ることは困難である
本稿では,UAVの最も短い飛行経路に依存しつつ,IoTデバイスから収集したデータ量を最大化しながら,新しいUAV支援IoTシステムを設計する。
論文 参考訳(メタデータ) (2021-06-06T14:08:41Z) - Towards Deep Learning Assisted Autonomous UAVs for Manipulation Tasks in
GPS-Denied Environments [10.02675366919811]
本稿では,屋外およびgps環境に大規模な3d構造物を組み立てる作業に主に焦点をあてる。
我々のフレームワークは、個々のモジュールのパフォーマンス解析を報告するために、指定されたUAV上にデプロイされる。
論文 参考訳(メタデータ) (2021-01-16T09:20:46Z) - Multi-Agent Reinforcement Learning in NOMA-aided UAV Networks for
Cellular Offloading [59.32570888309133]
複数の無人航空機(UAV)によるセルローディングのための新しい枠組みの提案
非直交多重アクセス(NOMA)技術は、無線ネットワークのスペクトル効率をさらに向上するために、各UAVに採用されている。
相互深いQ-network (MDQN) アルゴリズムは,UAVの最適3次元軌道と電力配分を共同で決定するために提案される。
論文 参考訳(メタデータ) (2020-10-18T20:22:05Z) - UAV Path Planning for Wireless Data Harvesting: A Deep Reinforcement
Learning Approach [18.266087952180733]
本稿では,IoT(Internet of Things)デバイスからのUAV対応データ収集に対するエンドツーエンド強化学習手法を提案する。
自律ドローンは、限られた飛行時間と障害物回避を受ける分散センサーノードからデータを収集する。
提案するネットワークアーキテクチャにより,エージェントが様々なシナリオパラメータの移動決定を行うことができることを示す。
論文 参考訳(メタデータ) (2020-07-01T15:14:16Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。