論文の概要: Trajectory Planning for UAV-Based Smart Farming Using Imitation-Based Triple Deep Q-Learning
- arxiv url: http://arxiv.org/abs/2512.18604v1
- Date: Sun, 21 Dec 2025 05:30:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.414544
- Title: Trajectory Planning for UAV-Based Smart Farming Using Imitation-Based Triple Deep Q-Learning
- Title(参考訳): 模倣に基づく3つのQ-Learningを用いたUAV型スマートファームの軌道計画
- Authors: Wencan Mao, Quanxi Zhou, Tomas Couso Coddou, Manabu Tsukada, Yunling Liu, Yusheng Ji,
- Abstract要約: 我々は、軌道計画問題をマルコフ決定過程(MDP)として定式化し、マルチエージェント強化学習(MARL)を活用して解決する。
本稿では,探索コストの低減にエリートな模擬機構を用いる,新しい模擬型三重Q-network (ITDQN) アルゴリズムを提案する。
提案したITDQNはDDQNの雑草認識率4.43%, データ収集率6.94%を上回った。
- 参考スコア(独自算出の注目度): 5.160399918845654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned aerial vehicles (UAVs) have emerged as a promising auxiliary platform for smart agriculture, capable of simultaneously performing weed detection, recognition, and data collection from wireless sensors. However, trajectory planning for UAV-based smart agriculture is challenging due to the high uncertainty of the environment, partial observations, and limited battery capacity of UAVs. To address these issues, we formulate the trajectory planning problem as a Markov decision process (MDP) and leverage multi-agent reinforcement learning (MARL) to solve it. Furthermore, we propose a novel imitation-based triple deep Q-network (ITDQN) algorithm, which employs an elite imitation mechanism to reduce exploration costs and utilizes a mediator Q-network over a double deep Q-network (DDQN) to accelerate and stabilize training and improve performance. Experimental results in both simulated and real-world environments demonstrate the effectiveness of our solution. Moreover, our proposed ITDQN outperforms DDQN by 4.43\% in weed recognition rate and 6.94\% in data collection rate.
- Abstract(参考訳): 無人航空機(UAV)は、無線センサーから雑草の検出、認識、データ収集を同時に行うことができるスマート農業のための有望な補助プラットフォームとして登場した。
しかし,UAVをベースとしたスマート農業の軌道計画は,環境の不確実性,部分観測,UAVのバッテリー容量の制限などにより困難である。
これらの問題に対処するために、軌道計画問題をマルコフ決定過程(MDP)として定式化し、マルチエージェント強化学習(MARL)を活用して解決する。
さらに,探索コストの低減にエリートな模擬機構を応用し,DDQN(Double Deep Q-network)上でのメディエータQ-networkを用いて,トレーニングの高速化と安定化と性能向上を実現した,新しい模擬型三重Q-network(ITDQN)アルゴリズムを提案する。
シミュレーション環境と実環境環境の両方における実験結果から,本ソリューションの有効性が示された。
さらに, 提案したITDQNは, DDQNの雑草認識率4.43 %, データ収集率6.94 %を上回った。
関連論文リスト
- Hierarchical Task Offloading and Trajectory Optimization in Low-Altitude Intelligent Networks Via Auction and Diffusion-based MARL [37.79695337425523]
低高度インテリジェントネットワーク(LAIN)は、災害対応、環境モニタリング、リアルタイムセンシングといったミッションクリティカルなアプリケーションをサポートすることができる。
これらのシステムは、エネルギー制約のあるUAV、タスク到着、異種コンピューティングリソースなど、重要な課題に直面している。
本稿では,UAV軌道計画とタスクオフロード決定を協調的に最適化する,時間依存型整数型非線形計画問題の解法を提案する。
論文 参考訳(メタデータ) (2025-12-05T08:14:45Z) - AerialMind: Towards Referring Multi-Object Tracking in UAV Scenarios [64.51320327698231]
UAVシナリオにおける最初の大規模RMOTベンチマークであるAerialMindを紹介する。
我々は、革新的な半自動協調型エージェントベースラベリングアシスタントフレームワークを開発した。
また,視覚言語表現学習を協調的に強化する新しい手法であるHawkEyeTrackを提案する。
論文 参考訳(メタデータ) (2025-11-26T04:44:27Z) - AirFed: Federated Graph-Enhanced Multi-Agent Reinforcement Learning for Multi-UAV Cooperative Mobile Edge Computing [21.4907371859268]
複数の無人航空機(UAV)協調移動エッジコンピューティング(MEC)システムは、軌道計画、タスクオフロード、リソース割り当ての調整において重要な課題に直面している。
既存のアプローチは、スケーラビリティの制限、収束の遅さ、UAV間の非効率な知識共有に悩まされている。
本稿では,新しい多エージェント強化学習フレームワークであるAirFedを提案する。
論文 参考訳(メタデータ) (2025-10-27T06:31:35Z) - Low-altitude UAV Friendly-Jamming for Satellite-Maritime Communications via Generative AI-enabled Deep Reinforcement Learning [72.23178920029957]
本稿では,低高度無人航空機(UAV)による衛星海上通信システムを提案する。
安全衛星・海上通信多目的最適化問題(SSMCMOP)を定式化する。
動的かつ長期の最適化問題を解くため、マルコフ決定過程に再構成する。
次に,トランスサック (TransSAC) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-26T10:13:51Z) - Task Delay and Energy Consumption Minimization for Low-altitude MEC via Evolutionary Multi-objective Deep Reinforcement Learning [52.64813150003228]
無人航空機や他の航空機による低高度経済(LAE)は、輸送、農業、環境監視といった分野に革命をもたらした。
今後の6世代(6G)時代において、UAV支援移動エッジコンピューティング(MEC)は特に山岳や災害に遭った地域のような困難な環境において重要である。
タスクオフロード問題は、主にタスク遅延の最小化とUAVのエネルギー消費のトレードオフに対処するUAV支援MECの重要な問題の一つである。
論文 参考訳(メタデータ) (2025-01-11T02:32:42Z) - Deep Reinforcement Learning for Task Offloading in UAV-Aided Smart Farm
Networks [3.6118662460334527]
我々は、この多目的問題を解決するために、Deep Q-Learning(DQL)アプローチを導入する。
提案手法は,UAVの残量と期限違反率に関して,同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:29:57Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - UAV Path Planning for Wireless Data Harvesting: A Deep Reinforcement
Learning Approach [18.266087952180733]
本稿では,IoT(Internet of Things)デバイスからのUAV対応データ収集に対するエンドツーエンド強化学習手法を提案する。
自律ドローンは、限られた飛行時間と障害物回避を受ける分散センサーノードからデータを収集する。
提案するネットワークアーキテクチャにより,エージェントが様々なシナリオパラメータの移動決定を行うことができることを示す。
論文 参考訳(メタデータ) (2020-07-01T15:14:16Z) - Simultaneous Navigation and Radio Mapping for Cellular-Connected UAV
with Deep Reinforcement Learning [46.55077580093577]
空のUAVに対して、ユビキタスな3Dコミュニケーションを実現するには、新しい課題だ。
本稿では,UAVの制御可能な移動性を利用して航法・軌道を設計する新しい航法手法を提案する。
そこで我々は,UAVの信号計測を深部Qネットワークのトレーニングに用いるSNARM (Concurrent Navigation and Radio Mapping) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T08:16:14Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。