論文の概要: FalconWing: An Open-Source Platform for Ultra-Light Fixed-Wing Aircraft Research
- arxiv url: http://arxiv.org/abs/2505.01383v1
- Date: Fri, 02 May 2025 16:47:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.086685
- Title: FalconWing: An Open-Source Platform for Ultra-Light Fixed-Wing Aircraft Research
- Title(参考訳): FalconWing:超軽量固定翼航空機研究のためのオープンソースプラットフォーム
- Authors: Yan Miao, Will Shen, Hang Cui, Sayan Mitra,
- Abstract要約: FalconWingは、自動運転研究のためのオープンソースの超軽量(150g)固定翼プラットフォームである。
我々は、新しいリアル・ツー・シミュレート・トゥ・リアル・ラーニング・アプローチを用いて、自律着陸のためのビジョンベースの制御ポリシーを開発し、展開する。
ハードウェアプラットフォームにゼロショットをデプロイすると、このポリシは、ビジョンベースの自律着陸において80%の成功率を達成する。
- 参考スコア(独自算出の注目度): 2.823704956886882
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present FalconWing -- an open-source, ultra-lightweight (150 g) fixed-wing platform for autonomy research. The hardware platform integrates a small camera, a standard airframe, offboard computation, and radio communication for manual overrides. We demonstrate FalconWing's capabilities by developing and deploying a purely vision-based control policy for autonomous landing (without IMU or motion capture) using a novel real-to-sim-to-real learning approach. Our learning approach: (1) constructs a photorealistic simulation environment via 3D Gaussian splatting trained on real-world images; (2) identifies nonlinear dynamics from vision-estimated real-flight data; and (3) trains a multi-modal Vision Transformer (ViT) policy through simulation-only imitation learning. The ViT architecture fuses single RGB image with the history of control actions via self-attention, preserving temporal context while maintaining real-time 20 Hz inference. When deployed zero-shot on the hardware platform, this policy achieves an 80% success rate in vision-based autonomous landings. Together with the hardware specifications, we also open-source the system dynamics, the software for photorealistic simulator and the learning approach.
- Abstract(参考訳): オープンソースで超軽量(150g)の固定翼プラットフォームであるFalconWingを紹介します。
ハードウェアプラットフォームは、小さなカメラ、標準的な機体、オフボード計算、手動のオーバーライドのための無線通信を統合している。
我々は,IMUやモーションキャプチャを使わずに)純粋に視覚に基づく自律着陸制御ポリシを開発し,展開することで,FalconWingの能力を実証する。
我々の学習手法は,(1)実世界の画像に基づいて訓練された3次元ガウススプラッティングを用いて光実写シミュレーション環境を構築すること,(2)視覚推定現実飛行データから非線形ダイナミクスを識別すること,(3)シミュレーションのみの模倣学習を通じてマルチモーダル視覚変換器(ViT)ポリシーを訓練することである。
ViTアーキテクチャは、リアルタイム20Hzの推論を維持しながら、時間的コンテキストを保ちながら、自己アテンションによる制御アクションの履歴と単一のRGBイメージを融合する。
ハードウェアプラットフォームにゼロショットをデプロイすると、このポリシは、ビジョンベースの自律着陸において80%の成功率を達成する。
ハードウェア仕様とともに,システムダイナミクス,フォトリアリスティックシミュレータソフトウェア,学習アプローチもオープンソース化した。
関連論文リスト
- VR-Robo: A Real-to-Sim-to-Real Framework for Visual Robot Navigation and Locomotion [25.440573256776133]
本稿では,視覚ナビゲーションと移動学習のための物理的にインタラクティブな「デジタルツイン」シミュレーション環境を生成する,リアル・ツー・シム・トゥ・リアルのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T17:15:05Z) - Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。