論文の概要: Deep Reinforcement Learning for Time-Critical Wilderness Search And Rescue Using Drones
- arxiv url: http://arxiv.org/abs/2405.12800v1
- Date: Tue, 21 May 2024 13:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 13:10:09.360442
- Title: Deep Reinforcement Learning for Time-Critical Wilderness Search And Rescue Using Drones
- Title(参考訳): ドローンによる時間批判的荒野探索と救助のための深層強化学習
- Authors: Jan-Hendrik Ewers, David Anderson, Douglas Thomson,
- Abstract要約: 本稿では,自然環境におけるドローンの効率的な探索ミッション構築のための深層強化学習の活用について検討する。
実験の結果,従来のカバレッジ計画や探索計画アルゴリズムと比較して,検索時間の大幅な改善が得られた。
- 参考スコア(独自算出の注目度): 0.294944680995069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional search and rescue methods in wilderness areas can be time-consuming and have limited coverage. Drones offer a faster and more flexible solution, but optimizing their search paths is crucial. This paper explores the use of deep reinforcement learning to create efficient search missions for drones in wilderness environments. Our approach leverages a priori data about the search area and the missing person in the form of a probability distribution map. This allows the deep reinforcement learning agent to learn optimal flight paths that maximize the probability of finding the missing person quickly. Experimental results show that our method achieves a significant improvement in search times compared to traditional coverage planning and search planning algorithms. In one comparison, deep reinforcement learning is found to outperform other algorithms by over $160\%$, a difference that can mean life or death in real-world search operations. Additionally, unlike previous work, our approach incorporates a continuous action space enabled by cubature, allowing for more nuanced flight patterns.
- Abstract(参考訳): 荒野における伝統的な捜索・救助手法は時間を要する可能性があり、範囲は限られている。
ドローンはより高速で柔軟なソリューションを提供するが、その探索経路を最適化することが不可欠だ。
本稿では,自然環境におけるドローンの効率的な探索ミッション構築のための深層強化学習の活用について検討する。
提案手法では,探索領域と行方不明者に関する事前データを,確率分布マップの形で活用する。
これにより、深層強化学習エージェントは、行方不明者を見つける確率を最大化する最適な飛行経路を学習することができる。
実験の結果,従来のカバレッジ計画や探索計画アルゴリズムと比較して,検索時間の大幅な改善が得られた。
1つの比較で、深層強化学習は、現実世界の検索操作における命と死を意味する違いである160\%以上の他のアルゴリズムより優れていることが判明した。
さらに, 従来の研究と異なり, キュウチュアによって可能となる連続的な行動空間を取り入れることで, より微妙な飛行パターンを実現できる。
関連論文リスト
- Curiosity-Driven Reinforcement Learning based Low-Level Flight Control [95.42181254494287]
本研究では,オドメトリデータから適切な運動速度を生成することにより,自律学習のための好奇心の駆動に基づくアルゴリズムを提案する。
探索パターンの進化における好奇心の効果を可視化したアルゴリズムとアルゴリズムを用いて、オン・ポリティ、オフ・ポリティ、オン・ポリティ、オン・ポリティと好奇心を用いたテストを実行した。
論文 参考訳(メタデータ) (2023-07-28T11:46:28Z) - Multi-Robot Path Planning Combining Heuristics and Multi-Agent
Reinforcement Learning [0.0]
移動過程においては、移動距離を最小化しながら他の移動ロボットとの衝突を避ける必要がある。
従来の方法では、競合を避けるために探索手法を用いて経路を継続的に再設計するか、学習アプローチに基づいた衝突回避戦略を選択するかのどちらかである。
本稿では,探索,経験則,マルチエージェント強化学習を組み合わせた経路計画手法MAPPOHRを提案する。
論文 参考訳(メタデータ) (2023-06-02T05:07:37Z) - A Search and Detection Autonomous Drone System: from Design to
Implementation [7.760962597460447]
ターゲットを見つけるのに要する時間の観点からの探索効率は、山火事の検出に不可欠である。
経路計画と目標検出という2つのアルゴリズムが提案されている。
その結果,提案アルゴリズムはミッションの平均時間を大幅に短縮することがわかった。
論文 参考訳(メタデータ) (2022-11-29T01:44:29Z) - Aerial View Goal Localization with Reinforcement Learning [6.165163123577484]
本稿では,実際のUAVへのアクセスを必要とせずに,SAR(Search-and-Rescue)のようなセットアップをエミュレートするフレームワークを提案する。
この枠組みでは、エージェントが空中画像(探索領域のプロキシ)上で動作し、視覚的手がかりとして記述されたゴールのローカライズを行う。
AiRLocは、探索(遠方目標探索)と搾取(近方目標の局所化)を分離する強化学習(RL)に基づくモデルである。
論文 参考訳(メタデータ) (2022-09-08T10:27:53Z) - CrossBeam: Learning to Search in Bottom-Up Program Synthesis [51.37514793318815]
ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
論文 参考訳(メタデータ) (2022-03-20T04:41:05Z) - MADE: Exploration via Maximizing Deviation from Explored Regions [48.49228309729319]
オンライン強化学習(RL)では、高次元環境における効率的な探索は依然として困難であり、報酬は少ない。
調査地域からの次の政策の逸脱を最大化することによる新たな探索手法を提案する。
提案手法は,最先端手法よりもサンプル効率を著しく向上させる。
論文 参考訳(メタデータ) (2021-06-18T17:57:00Z) - Deep Reinforcement Learning for Adaptive Exploration of Unknown
Environments [6.90777229452271]
私達はUAVのための1つのステップで調査および搾取間のトレードオフに適応的な調査のアプローチを開発します。
提案手法では, 環境マップを小型でトラクタブルな地図に分解するために, マップセグメンテーション手法を用いる。
その結果,本提案手法は,ランダムに生成された環境をナビゲートし,ベースラインと比較してAoIを短時間でカバーできることが示された。
論文 参考訳(メタデータ) (2021-05-04T16:29:44Z) - Sparse Reward Exploration via Novelty Search and Emitters [55.41644538483948]
本稿では,SparsE Reward Exploration via Novelty and Emitters (SERENE)アルゴリズムを提案する。
SERENEは、探索空間の探索と報酬の搾取を2つの交互プロセスに分けている。
メタスケジューラは、2つのプロセス間の交互にグローバルな計算予算を割り当てる。
論文 参考訳(メタデータ) (2021-02-05T12:34:54Z) - Autonomous UAV Exploration of Dynamic Environments via Incremental
Sampling and Probabilistic Roadmap [0.3867363075280543]
インクリメンタルサンプリングと確率的ロードマップ(PRM)を用いた未知環境探索のための新しい動的探索プランナ(DEP)を提案する。
本手法は, 動的環境を安全に探索し, 探索時間, 経路長, 計算時間でベンチマークプランナーより優れている。
論文 参考訳(メタデータ) (2020-10-14T22:52:37Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。