論文の概要: Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing
- arxiv url: http://arxiv.org/abs/2210.14985v1
- Date: Wed, 26 Oct 2022 19:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:55:25.919818
- Title: Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing
- Title(参考訳): 視覚に基づく自律ドローンレースにおけるdeep sensorimotorポリシーの学習
- Authors: Jiawei Fu, Yunlong Song, Yan Wu, Fisher Yu, Davide Scaramuzza
- Abstract要約: 既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
- 参考スコア(独自算出の注目度): 52.50284630866713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous drones can operate in remote and unstructured environments,
enabling various real-world applications. However, the lack of effective
vision-based algorithms has been a stumbling block to achieving this goal.
Existing systems often require hand-engineered components for state estimation,
planning, and control. Such a sequential design involves laborious tuning,
human heuristics, and compounding delays and errors. This paper tackles the
vision-based autonomous-drone-racing problem by learning deep sensorimotor
policies. We use contrastive learning to extract robust feature representations
from the input images and leverage a two-stage learning-by-cheating framework
for training a neural network policy. The resulting policy directly infers
control commands with feature representations learned from raw images, forgoing
the need for globally-consistent state estimation, trajectory planning, and
handcrafted control design. Our experimental results indicate that our
vision-based policy can achieve the same level of racing performance as the
state-based policy while being robust against different visual disturbances and
distractors. We believe this work serves as a stepping-stone toward developing
intelligent vision-based autonomous systems that control the drone purely from
image inputs, like human pilots.
- Abstract(参考訳): 自律ドローンは遠隔および非構造化環境で運用でき、様々な現実世界のアプリケーションを可能にする。
しかし、効果的なビジョンベースのアルゴリズムの欠如は、この目標を達成する上での障害となっている。
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
このようなシーケンシャルな設計には、作業的なチューニング、人間のヒューリスティック、遅延とエラーの複合化が含まれる。
本稿では,視覚に基づく自律ドローンレース問題に対して,深いセンサモジュレータポリシーを学習することで対処する。
コントラスト学習を用いて、入力画像からロバストな特徴表現を抽出し、ニューラルネットワークポリシーをトレーニングするための2段階学習フレームワークを活用する。
結果として得られたポリシーは、生画像から学習した特徴表現による制御コマンドを直接推論し、グローバルに一貫性のある状態推定、軌道計画、手作りの制御設計の必要性を排除している。
我々の視力に基づく政策は、異なる視覚障害や邪魔者に対して頑健でありながら、州ベースの政策と同じレベルのレース性能を達成できることを示す。
この研究は、人間のパイロットのような画像入力からドローンを制御するインテリジェントなビジョンベースの自律システムを開発するための足場となると信じています。
関連論文リスト
- Vision-based Learning for Drones: A Survey [1.280979348722635]
先進的なサイバー物理システムとしてのドローンは、視覚ベースの学習の出現とともに、変貌を遂げている。
このレビューでは、ドローンにおける視覚に基づく学習の包括的概要を提供し、その運用能力の向上における重要な役割を強調している。
我々は、単一エージェントシステムからより複雑なマルチエージェントおよび異種システムシナリオまで、学習機能を備えた視覚ベースのドローンの様々な応用について検討する。
論文 参考訳(メタデータ) (2023-12-08T12:57:13Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Learning Perception-Aware Agile Flight in Cluttered Environments [38.59659342532348]
乱雑な環境下での知覚に敏感で最小時間飛行を実現するニューラルネットワークポリシーを学習する手法を提案する。
提案手法は認識と制御を密に結合し,計算速度(10倍高速)と成功率に有意な優位性を示す。
本研究では, クローズドループ制御性能を最大50km/hの速さで実機とハードウェア・イン・ザ・ループシミュレーションを用いて実証する。
論文 参考訳(メタデータ) (2022-10-04T18:18:58Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Distilling Motion Planner Augmented Policies into Visual Control
Policies for Robot Manipulation [26.47544415550067]
我々は,国家ベースのモーションプランナ拡張ポリシーを視覚制御ポリシーに蒸留することを提案する。
閉塞環境における3つの操作課題について評価を行った。
我々のフレームワークはサンプリング効率が高く、最先端のアルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2021-11-11T18:52:00Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - AirSim Drone Racing Lab [56.68291351736057]
AirSim Drone Racing Labは、この領域で機械学習研究を可能にするシミュレーションフレームワークである。
本フレームワークは,複数の写真リアル環境下でのレーストラック生成を可能にする。
当社のフレームワークを使用して,NeurIPS 2019で,シミュレーションベースのドローンレースコンペティションを開催しました。
論文 参考訳(メタデータ) (2020-03-12T08:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。