論文の概要: FlightForge: Advancing UAV Research with Procedural Generation of High-Fidelity Simulation and Integrated Autonomy
- arxiv url: http://arxiv.org/abs/2502.05038v1
- Date: Fri, 07 Feb 2025 16:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:55:47.353994
- Title: FlightForge: Advancing UAV Research with Procedural Generation of High-Fidelity Simulation and Integrated Autonomy
- Title(参考訳): FlightForge: 高忠実度シミュレーションと統合自律性の手続き生成によるUAV研究の促進
- Authors: David Čapek, Jan Hrnčíř, Tomáš Báča, Jakub Jirkal, Vojtěch Vonásek, Robert Pěnička, Martin Saska,
- Abstract要約: 本研究では,FlightForge UAVオープンソースシミュレータを提案する。
高度なレンダリング機能、多様な制御モダリティ、そして最も重要なのは、手続き的な環境生成を提供する。
このシミュレーターは、散らかった未知の環境で長距離飛行が可能な完全自律型UAVシステムとすでに統合されている。
- 参考スコア(独自算出の注目度): 2.6003704171754416
- License:
- Abstract: Robotic simulators play a crucial role in the development and testing of autonomous systems, particularly in the realm of Uncrewed Aerial Vehicles (UAV). However, existing simulators often lack high-level autonomy, hindering their immediate applicability to complex tasks such as autonomous navigation in unknown environments. This limitation stems from the challenge of integrating realistic physics, photorealistic rendering, and diverse sensor modalities into a single simulation environment. At the same time, the existing photorealistic UAV simulators use mostly hand-crafted environments with limited environment sizes, which prevents the testing of long-range missions. This restricts the usage of existing simulators to only low-level tasks such as control and collision avoidance. To this end, we propose the novel FlightForge UAV open-source simulator. FlightForge offers advanced rendering capabilities, diverse control modalities, and, foremost, procedural generation of environments. Moreover, the simulator is already integrated with a fully autonomous UAV system capable of long-range flights in cluttered unknown environments. The key innovation lies in novel procedural environment generation and seamless integration of high-level autonomy into the simulation environment. Experimental results demonstrate superior sensor rendering capability compared to existing simulators, and also the ability of autonomous navigation in almost infinite environments.
- Abstract(参考訳): ロボットシミュレータは、特に無人航空機(UAV)の領域において、自律システムの開発とテストにおいて重要な役割を果たす。
しかし、既存のシミュレータは高レベルの自律性を欠くことが多く、未知の環境での自律ナビゲーションのような複雑なタスクにすぐに適用できなくなる。
この制限は、現実的な物理学、フォトリアリスティックレンダリング、および多様なセンサーのモダリティを単一のシミュレーション環境に統合するという課題に起因している。
同時に、既存の写真リアリスティックUAVシミュレータは、主に手作りの環境を使用し、環境サイズが限られており、長距離ミッションのテストが不可能である。
これにより、既存のシミュレータの使用は制御や衝突回避といった低レベルなタスクに限られる。
そこで本研究では,FlightForge UAVオープンソースシミュレータを提案する。
FlightForgeは高度なレンダリング機能、多様な制御モダリティ、そして、おもに手続き的な環境生成を提供する。
さらに、シミュレータは、散らかった未知の環境で長距離飛行が可能な完全自律型UAVシステムと既に統合されている。
重要なイノベーションは、新しい手続き環境の生成と、シミュレーション環境への高レベルの自律性のシームレスな統合である。
実験により、既存のシミュレータよりも優れたセンサレンダリング能力と、ほぼ無限環境における自律ナビゲーション能力が示された。
関連論文リスト
- DrivingSphere: Building a High-fidelity 4D World for Closed-loop Simulation [54.02069690134526]
本研究では,現実的でクローズドループなシミュレーションフレームワークであるDrivingSphereを提案する。
その中核となる考え方は、4Dの世界表現を構築し、実生活と制御可能な運転シナリオを生成することである。
動的で現実的なシミュレーション環境を提供することで、DrivingSphereは自律運転アルゴリズムの包括的なテストと検証を可能にする。
論文 参考訳(メタデータ) (2024-11-18T03:00:33Z) - DroneWiS: Automated Simulation Testing of small Unmanned Aerial Systems in Realistic Windy Conditions [8.290044674335473]
DroneWiSは、sUAS開発者が現実的な風の条件を自動的にシミュレートし、sUASの風に対するレジリエンスをテストすることを可能にする。
ガゼボやAirSimのような現在の最先端のシミュレーションツールとは異なり、DroneWiSは計算流体力学(CFD)を利用してユニークな風速を計算する。
このシミュレーション機能は、困難で現実的な風の条件下でのsUASのナビゲーション能力について、開発者に深い洞察を提供する。
論文 参考訳(メタデータ) (2024-08-29T14:25:11Z) - Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - GarchingSim: An Autonomous Driving Simulator with Photorealistic Scenes
and Minimalist Workflow [24.789118651720045]
光実写シーンを用いた自律走行シミュレータを提案する。
シミュレータはROS2またはSocket.IOを介して外部アルゴリズムと通信することができる。
シミュレータ内に高精度な車両力学モデルを実装し,車体効果の現実性を高める。
論文 参考訳(メタデータ) (2024-01-28T23:26:15Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - UniSim: A Neural Closed-Loop Sensor Simulator [76.79818601389992]
センサ搭載車両によって記録された1つのログをキャプチャする、ニューラルネットワークシミュレータUniSimを提示する。
UniSimは、静的バックグラウンドと動的アクターの両方を再構築するために、ニューラルネットワーク機能グリッドを構築する。
動的オブジェクトの学習可能な事前情報を組み込んで、畳み込みネットワークを利用して未確認領域を完成させる。
論文 参考訳(メタデータ) (2023-08-03T17:56:06Z) - DroneReqValidator: Facilitating High Fidelity Simulation Testing for
Uncrewed Aerial Systems Developers [8.290044674335473]
sUAS開発者はシミュレーションテストを通じてアプリケーションの信頼性と安全性を検証することを目指している。
実世界の環境の動的な性質は、フィールドテストによってのみ明らかにされる可能性のある、ユニークなソフトウェア欠陥を引き起こす。
DroneReqValidator(DRV)は、小型無人航空機(SUAV)シミュレーションエコシステムを提供する。
論文 参考訳(メタデータ) (2023-07-31T22:13:57Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - Exploration of AI-Oriented Power System Transient Stability Simulations [2.182997852215525]
将来の電力系統の過渡安定シミュレーションがAIと深く統合されることは予測できる。
既存の電力システムの動的シミュレーションツールは、AIフレンドリーではない。
AI指向の電力系統過渡安定シミュレータの汎用設計を提案する。
論文 参考訳(メタデータ) (2021-10-03T06:01:45Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。