論文の概要: AirSim360: A Panoramic Simulation Platform within Drone View
- arxiv url: http://arxiv.org/abs/2512.02009v1
- Date: Mon, 01 Dec 2025 18:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:35.038317
- Title: AirSim360: A Panoramic Simulation Platform within Drone View
- Title(参考訳): AirSim360:ドローンビュー内のパノラマシミュレーションプラットフォーム
- Authors: Xian Ge, Yuling Pan, Yuhang Zhang, Xiang Li, Weijun Zhang, Dizhe Zhang, Zhaoliang Wan, Xin Lin, Xiangkai Zhang, Juntao Liang, Jason Li, Wenjie Jiang, Bo Du, Ming-Hsuan Yang, Lu Qi,
- Abstract要約: AirSim360は、空中から見た全方位データのためのシミュレーションプラットフォームである。
AirSim360は、ピクセルレベルの幾何学的、セマンティック、エンティティレベルの理解のためのレンダリング整列データとラベリングパラダイムの3つの重要な側面に焦点を当てている。
既存のシミュレータとは異なり、我々の研究は、全方位で4Dの現実世界をシステマティックにモデル化した最初のものである。
- 参考スコア(独自算出の注目度): 63.238263531772446
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The field of 360-degree omnidirectional understanding has been receiving increasing attention for advancing spatial intelligence. However, the lack of large-scale and diverse data remains a major limitation. In this work, we propose AirSim360, a simulation platform for omnidirectional data from aerial viewpoints, enabling wide-ranging scene sampling with drones. Specifically, AirSim360 focuses on three key aspects: a render-aligned data and labeling paradigm for pixel-level geometric, semantic, and entity-level understanding; an interactive pedestrian-aware system for modeling human behavior; and an automated trajectory generation paradigm to support navigation tasks. Furthermore, we collect more than 60K panoramic samples and conduct extensive experiments across various tasks to demonstrate the effectiveness of our simulator. Unlike existing simulators, our work is the first to systematically model the 4D real world under an omnidirectional setting. The entire platform, including the toolkit, plugins, and collected datasets, will be made publicly available at https://insta360-research-team.github.io/AirSim360-website.
- Abstract(参考訳): 360度全方位理解の分野は、空間知能の進歩に注目が集まっている。
しかし、大規模で多様なデータの欠如は依然として大きな限界である。
本研究では,空中から見た全方位データのためのシミュレーションプラットフォームであるAirSim360を提案する。
具体的には、AirSim360は、ピクセルレベルの幾何学的、意味的、実体レベルの理解のためのレンダリング整列データおよびラベル付けパラダイム、人間の振る舞いをモデル化するためのインタラクティブな歩行者認識システム、ナビゲーションタスクをサポートする自動軌跡生成パラダイムの3つの重要な側面に焦点を当てている。
さらに,60K以上のパノラマサンプルを収集し,様々なタスクにまたがる広範な実験を行い,シミュレータの有効性を実証した。
既存のシミュレータとは異なり、我々の研究は、全方位で4Dの現実世界をシステマティックにモデル化した最初のものである。
ツールキット、プラグイン、収集されたデータセットを含むプラットフォーム全体がhttps://insta360-research-team.github.io/AirSim360-website.comで公開される。
関連論文リスト
- GaussGym: An open-source real-to-sim framework for learning locomotion from pixels [78.05453137978132]
本稿では,3次元ガウススプラッティングをベクトル化物理シミュレータのドロップインとして統合した光現実的ロボットシミュレーションを提案する。
これにより、コンシューマGPUで毎秒10万ステップを超える、前例のないスピードを実現している。
また,シミュレーティブ・トゥ・リアル・ロボティクス・セッティングにおける適用性を実証した。
論文 参考訳(メタデータ) (2025-10-17T06:34:52Z) - AirScape: An Aerial Generative World Model with Motion Controllability [29.696659138543136]
AirScapeは、6自由度飛行エージェント用に設計された世界初の世界モデルである。
現在の視覚的入力と動きの意図に基づいて将来の観測を予測する。
論文 参考訳(メタデータ) (2025-07-10T16:05:30Z) - TartanGround: A Large-Scale Dataset for Ground Robot Perception and Navigation [19.488886693695946]
TartanGroundは、地上ロボットの認識と自律性を向上する大規模なマルチモーダルデータセットである。
我々は70の環境にまたがって910の軌道を集め、150万のサンプルを得た。
TartanGroundは、幅広い学習ベースのタスクのトレーニングと評価のためのテストベッドとして機能する。
論文 参考訳(メタデータ) (2025-05-15T20:35:06Z) - OpenFly: A Comprehensive Platform for Aerial Vision-Language Navigation [49.697035403548966]
Vision-Language Navigation (VLN)は、言語命令と視覚的手がかりを活用してエージェントを誘導することを目的としており、AIの具体化において重要な役割を果たす。
各種レンダリングエンジン,多用途ツールチェーン,航空VLNの大規模ベンチマークからなるプラットフォームであるOpenFlyを提案する。
我々は、100kの軌跡を持つ大規模な航空VLNデータセットを構築し、18のシーンにまたがる様々な高さと長さをカバーした。
論文 参考訳(メタデータ) (2025-02-25T09:57:18Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。