論文の概要: Hybrid Artificial Intelligence Strategies for Drone Navigation
- arxiv url: http://arxiv.org/abs/2501.04472v1
- Date: Wed, 08 Jan 2025 12:51:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:55:19.035784
- Title: Hybrid Artificial Intelligence Strategies for Drone Navigation
- Title(参考訳): ドローンナビゲーションのためのハイブリッド人工知能戦略
- Authors: Rubén San-Segundo, Lucía Angulo, Manuel Gil-Martín, David Carramiñana, Ana M. Bernardos,
- Abstract要約: 本稿では,ドローンナビゲーションのためのハイブリッド人工知能戦略の開発について述べる。
ナビゲーションモジュールは、エージェントの状態に応じてディープラーニングモデルとルールベースのエンジンを組み合わせる。
- 参考スコア(独自算出の注目度): 0.6804079979762628
- License:
- Abstract: Objective: This paper describes the development of hybrid artificial intelligence strategies for drone navigation. Methods: The navigation module combines a deep learning model with a rule-based engine depending on the agent state. The deep learning model has been trained using reinforcement learning. The rule-based engine uses expert knowledge to deal with specific situations. The navigation module incorporates several strategies to explain the drone decision based on its observation space, and different mechanisms for including human decisions in the navigation process. Finally, this paper proposes an evaluation methodology based on defining several scenarios and analyzing the performance of the different strategies according to metrics adapted to each scenario. Results: Two main navigation problems have been studied. For the first scenario (reaching known targets), it has been possible to obtain a 90% task completion rate, reducing significantly the number of collisions thanks to the rule-based engine. For the second scenario, it has been possible to reduce 20% of the time required to locate all the targets using the reinforcement learning model. Conclusions: Reinforcement learning is a very good strategy to learn policies for drone navigation, but in critical situations, it is necessary to complement it with a rule-based module to increase task success rate.
- Abstract(参考訳): 目的: 本論文では, ドローンナビゲーションのためのハイブリッド人工知能戦略の開発について述べる。
メソッド: ナビゲーションモジュールは、エージェントの状態に応じて、ディープラーニングモデルとルールベースのエンジンを組み合わせる。
深層学習モデルは強化学習を用いて訓練されている。
ルールベースのエンジンは、専門家の知識を使って特定の状況に対処する。
ナビゲーションモジュールには、その観測空間に基づいてドローンの決定を説明するためのいくつかの戦略と、ナビゲーションプロセスに人間の決定を含めるためのさまざまなメカニズムが組み込まれている。
最後に,複数のシナリオを定義し,各シナリオに適合するメトリクスに基づいて,異なる戦略の性能を解析する評価手法を提案する。
結果: 2つの主要な航法問題が研究されている。
最初のシナリオ(既知のターゲットの取得)では、90%のタスク完了率を得ることができ、ルールベースのエンジンによって衝突回数を大幅に削減できる。
2つ目のシナリオでは、強化学習モデルを用いてすべての目標を特定するのに必要な20%の時間を短縮することが可能である。
結論: 強化学習は、ドローンナビゲーションのポリシーを学ぶための非常によい戦略であるが、重要な状況では、タスクの成功率を高めるためにルールベースのモジュールでそれを補完する必要がある。
関連論文リスト
- NavCoT: Boosting LLM-Based Vision-and-Language Navigation via Learning
Disentangled Reasoning [101.56342075720588]
Embodied AIの重要な研究課題であるVision-and-Language Navigation (VLN)は、自然言語の指示に従って複雑な3D環境をナビゲートするために、エンボディエージェントを必要とする。
近年の研究では、ナビゲーションの推論精度と解釈可能性を改善することにより、VLNにおける大きな言語モデル(LLM)の有望な能力を強調している。
本稿では,自己誘導型ナビゲーション決定を実現するために,パラメータ効率の高いドメイン内トレーニングを実現する,Navigational Chain-of-Thought (NavCoT) という新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-03-12T07:27:02Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - Robot path planning using deep reinforcement learning [0.0]
強化学習法は、地図のないナビゲーションタスクに代わる手段を提供する。
障害物回避と目標指向ナビゲーションタスクの両方に深部強化学習エージェントを実装した。
報酬関数の変更によるエージェントの挙動と性能の変化を解析する。
論文 参考訳(メタデータ) (2023-02-17T20:08:59Z) - Holistic Deep-Reinforcement-Learning-based Training of Autonomous
Navigation Systems [4.409836695738518]
Deep Reinforcement Learningは、地上車両の自律的なナビゲーションのための有望なアプローチとして登場した。
本稿では,ナビゲーションスタックの全要素を含む総合的な深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:52:15Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Benchmarking Reinforcement Learning Techniques for Autonomous Navigation [41.1337061798188]
深部強化学習(RL)は自律型ロボットナビゲーションに多くの成功をもたらした。
RLベースのナビゲーションシステムの現実的な使用を防ぐ重要な制限がまだ残っている。
論文 参考訳(メタデータ) (2022-10-10T16:53:42Z) - Multi-Robot Deep Reinforcement Learning for Mobile Navigation [82.62621210336881]
階層的統合モデル(HInt)を用いた深層強化学習アルゴリズムを提案する。
トレーニング時には、HIntは別々の知覚モデルとダイナミクスモデルを学び、テスト時には、HIntは2つのモデルを階層的な方法で統合し、統合モデルとアクションを計画する。
我々のモバイルナビゲーション実験は、HIntが従来の階層的ポリシーや単一ソースアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-06-24T19:07:40Z) - XAI-N: Sensor-based Robot Navigation using Expert Policies and Decision
Trees [55.9643422180256]
本稿では,ロボットの密集した動的環境における衝突のない軌道を計算するためのセンサベース学習ナビゲーションアルゴリズムを提案する。
我々のアプローチは、sim2realパラダイムを用いて訓練された深層強化学習に基づくエキスパートポリシーを使用する。
シミュレーション環境でのアルゴリズムの利点を強調し、移動中の歩行者の間でClearpath Jackalロボットをナビゲートする。
論文 参考訳(メタデータ) (2021-04-22T01:33:10Z) - Using Deep Reinforcement Learning Methods for Autonomous Vessels in 2D
Environments [11.657524999491029]
本研究では,Q-Learningとニューラル表現を組み合わせた深層強化学習を用いて不安定性を回避する。
当社の方法論では,Q-Learningを深く使用して,アジャイル方法論のローリングウェーブプランニングアプローチと組み合わせています。
実験の結果,VVNの長距離ミッションの平均性能は55.31倍に向上した。
論文 参考訳(メタデータ) (2020-03-23T12:58:58Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。