論文の概要: FalconWing: An Ultra-Light Indoor Fixed-Wing UAV Platform for Vision-Based Autonomy
- arxiv url: http://arxiv.org/abs/2505.01383v2
- Date: Thu, 02 Oct 2025 17:29:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 19:26:07.823891
- Title: FalconWing: An Ultra-Light Indoor Fixed-Wing UAV Platform for Vision-Based Autonomy
- Title(参考訳): FalconWing:超軽量の室内固定翼UAVプラットフォーム
- Authors: Yan Miao, Will Shen, Hang Cui, Sayan Mitra,
- Abstract要約: FalconWingは、超軽量(150g)の屋内固定翼UAVプラットフォームで、視覚ベースの自律性を実現する。
FalconWingは軽量のハードウェアスタック(9gカメラを搭載した137gの機体)と、ビジョンベースのコントローラーの開発と評価のための3Dガウススプラット(GSplat)シミュレーターを備えたソフトウェアスタックを結合している。
ハードウェアデザイン、GSplatのシーン、ダイナミックスモデルを公開して、FalconWingをエンジニアリングの学生や研究室のためのオープンソースのフライトキットにする。
- 参考スコア(独自算出の注目度): 3.7383337849330336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce FalconWing, an ultra-light (150 g) indoor fixed-wing UAV platform for vision-based autonomy. Controlled indoor environment enables year-round repeatable UAV experiment but imposes strict weight and maneuverability limits on the UAV, motivating our ultra-light FalconWing design. FalconWing couples a lightweight hardware stack (137g airframe with a 9g camera) and offboard computation with a software stack featuring a photorealistic 3D Gaussian Splat (GSplat) simulator for developing and evaluating vision-based controllers. We validate FalconWing on two challenging vision-based aerial case studies. In the leader-follower case study, our best vision-based controller, trained via imitation learning on GSplat-rendered data augmented with domain randomization, achieves 100% tracking success across 3 types of leader maneuvers over 30 trials and shows robustness to leader's appearance shifts in simulation. In the autonomous landing case study, our vision-based controller trained purely in simulation transfers zero-shot to real hardware, achieving an 80% success rate over ten landing trials. We will release hardware designs, GSplat scenes, and dynamics models upon publication to make FalconWing an open-source flight kit for engineering students and research labs.
- Abstract(参考訳): 本稿では,超軽量(150g)屋内固定翼UAVプラットフォームであるFalconWingを紹介した。
制御された屋内環境は、年中繰り返し可能なUAV実験を可能にするが、UAVに厳格な重量と操縦性制限を課し、超軽量のFalconWingの設計を動機付けている。
FalconWingは軽量なハードウェアスタック(9gカメラを搭載した137gの機体)と、ビジョンベースのコントローラの開発と評価のための3Dガウシアン・スプラット(GSplat)シミュレーターを備えたソフトウェアスタックとを結合している。
我々は、FalconWingを2つの挑戦的な視覚ベースの空中ケーススタディで検証する。
ドメインランダム化で強化されたGSplatレンダリングデータの模倣学習を通じてトレーニングされた、リーダ・フォロワーケーススタディでは、30のトライアルを越える3種類のリーダ操作に対して100%のトラッキング成功を実現し、シミュレーションにおけるリーダの出現シフトに対する堅牢性を示しています。
自律着陸ケーススタディにおいて、我々の視覚ベースのコントローラーは、ゼロショットを実際のハードウェアに転送するシミュレーションを純粋に訓練し、10回の着陸試験で80%の成功率を達成した。
ハードウェアデザイン、GSplatのシーン、ダイナミックスモデルを公開して、FalconWingをエンジニアリングの学生や研究室のためのオープンソースのフライトキットにする。
関連論文リスト
- cVLA: Towards Efficient Camera-Space VLAs [26.781510474119845]
Vision-Language-Action(VLA)モデルは、複雑なロボット操作タスクに取り組むための魅力的なフレームワークを提供する。
2次元画像上での視覚言語モデルの競合性能を活用する新しいVLA手法を提案する。
我々のモデルは軌道方向の経路を予測し、トレーニングとロボットの実施の両方を効果的に行う。
論文 参考訳(メタデータ) (2025-07-02T22:56:41Z) - VR-Robo: A Real-to-Sim-to-Real Framework for Visual Robot Navigation and Locomotion [25.440573256776133]
本稿では,視覚ナビゲーションと移動学習のための物理的にインタラクティブな「デジタルツイン」シミュレーション環境を生成する,リアル・ツー・シム・トゥ・リアルのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T17:15:05Z) - Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。