論文の概要: Interpretable UAV Collision Avoidance using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2105.12254v1
- Date: Tue, 25 May 2021 23:21:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 04:52:15.510957
- Title: Interpretable UAV Collision Avoidance using Deep Reinforcement Learning
- Title(参考訳): 深部強化学習によるUAV衝突回避の解釈
- Authors: Deepak-George Thomas, Daniil Olshanskyi, Karter Krueger, Ali Jannesari
- Abstract要約: 自己注意モデルを用いた深部強化学習を用いた自律型UAV飛行を提案する。
気象や環境によってアルゴリズムをテストした結果,従来のDeep Reinforcement Learningアルゴリズムと比較して頑健であることが判明した。
- 参考スコア(独自算出の注目度): 1.2693545159861856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The major components of any successful autonomous flight system are task
completion and collision avoidance. Most deep learning algorithms are
successful while executing these aspects under the environment and conditions
in which they have been trained. However, they fail when subjected to novel
environments. In this paper we present autonomous UAV flight using Deep
Reinforcement Learning augmented with Self-Attention Models that can
effectively reason when subjected to varying inputs. In addition to their
reasoning ability, they also are interpretable which enables it to be used
under real-world conditions. We have tested our algorithm under different
weather and environments and found it to be robust compared to conventional
Deep Reinforcement Learning algorithms.
- Abstract(参考訳): 自律飛行システムの成功の主な構成要素は、タスクの完了と衝突回避である。
ほとんどのディープラーニングアルゴリズムは、トレーニングされた環境と条件下でこれらの側面を実行しながら成功している。
しかし、新しい環境にさらされると失敗する。
本稿では,様々な入力に対して効果的に推論可能な自己照査モデルによる深層強化学習を用いた自律型uav飛行について述べる。
推論能力に加えて、現実の条件下での使用を可能にする解釈可能である。
気象や環境によってアルゴリズムをテストした結果,従来のDeep Reinforcement Learningアルゴリズムに比べて堅牢であることが判明した。
関連論文リスト
- Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Using Collision Momentum in Deep Reinforcement Learning Based
Adversarial Pedestrian Modeling [0.0]
本稿では,衝突を対象とする強化学習アルゴリズムを提案する。
我々のアルゴリズムは効率的で、より厳しい衝突を発生し、複雑で多様なシナリオにおける自律運転アルゴリズムの弱点の同定と修正を可能にする。
論文 参考訳(メタデータ) (2023-06-13T03:38:05Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Active Perception Applied To Unmanned Aerial Vehicles Through Deep
Reinforcement Learning [0.5161531917413708]
本研究は,水面構造物の追跡・認識の問題に取り組むことで,UAVのアクティブな認識に寄与することを目的としている。
本稿では,従来の画像処理技術とDeep-RL(Deep Reinforcement Learning, 深層強化学習)エージェントを用いて,環境を知覚し,不確実性に対処できることを示す。
論文 参考訳(メタデータ) (2022-09-13T22:51:34Z) - A Deep Reinforcement Learning Strategy for UAV Autonomous Landing on a
Platform [0.0]
物理シミュレーションプラットフォーム(ROS-RL)の一種であるGazeboに基づく強化学習フレームワークを提案する。
我々は,自律着陸問題に対処するために,3つの連続行動空間強化学習アルゴリズムをフレームワークに使用した。
論文 参考訳(メタデータ) (2022-09-07T06:33:57Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Solving reward-collecting problems with UAVs: a comparison of online
optimization and Q-learning [2.4251007104039006]
与えられたスタートからゴールまでの短い経路を識別し、すべての報酬を集め、グリッド上でランダムに動く敵を避けるという課題について検討する。
本稿では,Deep Q-Learningモデル,$varepsilon$-greedyタブ状Q-Learningモデル,オンライン最適化フレームワークの3つの方法の比較を行った。
我々の実験は、ランダムな逆数を持つ単純なグリッドワールド環境を用いて設計され、これらの手法がどのように機能するかを示し、性能、精度、計算時間の観点から比較する。
論文 参考訳(メタデータ) (2021-11-30T22:27:24Z) - XAI-N: Sensor-based Robot Navigation using Expert Policies and Decision
Trees [55.9643422180256]
本稿では,ロボットの密集した動的環境における衝突のない軌道を計算するためのセンサベース学習ナビゲーションアルゴリズムを提案する。
我々のアプローチは、sim2realパラダイムを用いて訓練された深層強化学習に基づくエキスパートポリシーを使用する。
シミュレーション環境でのアルゴリズムの利点を強調し、移動中の歩行者の間でClearpath Jackalロボットをナビゲートする。
論文 参考訳(メタデータ) (2021-04-22T01:33:10Z) - Using Deep Reinforcement Learning Methods for Autonomous Vessels in 2D
Environments [11.657524999491029]
本研究では,Q-Learningとニューラル表現を組み合わせた深層強化学習を用いて不安定性を回避する。
当社の方法論では,Q-Learningを深く使用して,アジャイル方法論のローリングウェーブプランニングアプローチと組み合わせています。
実験の結果,VVNの長距離ミッションの平均性能は55.31倍に向上した。
論文 参考訳(メタデータ) (2020-03-23T12:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。