論文の概要: Robust Navigation for Racing Drones based on Imitation Learning and
Modularization
- arxiv url: http://arxiv.org/abs/2105.12923v1
- Date: Thu, 27 May 2021 03:26:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:43:12.230483
- Title: Robust Navigation for Racing Drones based on Imitation Learning and
Modularization
- Title(参考訳): 模倣学習とモジュール化に基づくレース用ドローンのロバストナビゲーション
- Authors: Tianqi Wang, Dong Eui Chang
- Abstract要約: 本稿では、認識モジュールにカスタマイズされた畳み込みニューラルネットワーク(CNN)を用いた、視覚に基づくモジュール化されたドローンレースナビゲーションシステムを提案する。
我々は、最先端のプランナーとコントローラを利用して低レベルの制御コマンドを生成し、データベースとモデルベースの両方のアプローチの利点を利用する。
- 参考スコア(独自算出の注目度): 3.616948583169635
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a vision-based modularized drone racing navigation system
that uses a customized convolutional neural network (CNN) for the perception
module to produce high-level navigation commands and then leverages a
state-of-the-art planner and controller to generate low-level control commands,
thus exploiting the advantages of both data-based and model-based approaches.
Unlike the state-of-the-art method which only takes the current camera image as
the CNN input, we further add the latest three drone states as part of the
inputs. Our method outperforms the state-of-the-art method in various track
layouts and offers two switchable navigation behaviors with a single trained
network. The CNN-based perception module is trained to imitate an expert policy
that automatically generates ground truth navigation commands based on the
pre-computed global trajectories. Owing to the extensive randomization and our
modified dataset aggregation (DAgger) policy during data collection, our
navigation system, which is purely trained in simulation with synthetic
textures, successfully operates in environments with randomly-chosen
photorealistic textures without further fine-tuning.
- Abstract(参考訳): 本稿では、認識モジュールにカスタマイズされた畳み込みニューラルネットワーク(CNN)を用いて高レベルのナビゲーションコマンドを生成し、次に最先端のプランナーとコントローラを用いて低レベルの制御コマンドを生成することにより、データベースとモデルベースの両方のアプローチの利点を活用する。
現行のカメラ画像のみをCNN入力とする最先端の手法とは異なり、最新の3つのドローン状態を入力の一部として追加する。
提案手法は,様々なトラックレイアウトにおいて最先端の手法よりも優れ,単一のトレーニングネットワークで2つの切り替え可能なナビゲーション挙動を提供する。
cnnベースの知覚モジュールは、事前に計算されたグローバルトラジェクタに基づいて、グランド真実のナビゲーションコマンドを自動的に生成するエキスパートポリシーを模倣するように訓練される。
広範なランダム化とデータ収集中のデータセットアグリゲーション(dagger)ポリシーの変更により、合成テクスチャによるシミュレーションを純粋に訓練したナビゲーションシステムは、無作為な無作為なフォトリアリスティックなテクスチャを持つ環境で、さらに微調整することなくうまく動作する。
関連論文リスト
- Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Optical Flow Matters: an Empirical Comparative Study on Fusing Monocular Extracted Modalities for Better Steering [37.46760714516923]
本研究は、単眼カメラからのマルチモーダル情報を利用して、自動運転車のステアリング予測を改善する新しいエンドツーエンド手法を提案する。
本稿では,RGB画像と深度補完情報や光フローデータとの融合に着目し,これらのモダリティを早期・ハイブリッド融合技術によって統合する枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-18T09:36:24Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Learning to Predict Navigational Patterns from Partial Observations [63.04492958425066]
本稿では,実環境におけるナビゲーションのパターンを,部分的な観察のみから推測する,初めての自己教師型学習(SSL)手法を提案する。
我々は、DSLPフィールドに最大極大グラフを適合させることにより、グローバルなナビゲーションパターンを推論する方法を実証する。
実験により,我々のSSLモデルはnuScenesデータセット上で2つのSOTA教師付きレーングラフ予測モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-04-26T02:08:46Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - Incorporating Kinematic Wave Theory into a Deep Learning Method for
High-Resolution Traffic Speed Estimation [3.0969191504482243]
本研究では, 波動に基づく深部畳み込みニューラルネットワーク(Deep CNN)を提案し, スパースプローブ車両軌道から高分解能交通速度のダイナミクスを推定する。
我々は,既存の学習に基づく推定手法の堅牢性を改善するために,運動波理論の原理を取り入れるための2つの重要なアプローチを導入する。
論文 参考訳(メタデータ) (2021-02-04T21:51:25Z) - Unsupervised Domain Adaptation for Visual Navigation [115.85181329193092]
視覚ナビゲーションのための教師なし領域適応手法を提案する。
本手法では,対象領域の画像をソース領域に変換し,ナビゲーションポリシで学習した表現と一致するようにする。
論文 参考訳(メタデータ) (2020-10-27T18:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。