論文の概要: Fly360: Omnidirectional Obstacle Avoidance within Drone View
- arxiv url: http://arxiv.org/abs/2603.06573v1
- Date: Fri, 06 Mar 2026 18:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.414007
- Title: Fly360: Omnidirectional Obstacle Avoidance within Drone View
- Title(参考訳): Fly360:ドローンビュー内における全方位障害物回避
- Authors: Xiangkai Zhang, Dizhe Zhang, WenZhuo Cao, Zhaoliang Wan, Yingjie Niu, Lu Qi, Xu Yang, Zhiyong Liu,
- Abstract要約: 無人航空機(UAV)の障害物回避は、空間知性への注目が高まり、注目を集めている。
現在の障害物回避法は主に視野の限られたセンサーに依存しており、UAVのシナリオには適していない。
この制限は、パノラマドローンの完全な視界を持つ全方位障害物回避を探求する動機となる。
- 参考スコア(独自算出の注目度): 23.21774398877285
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Obstacle avoidance in unmanned aerial vehicles (UAVs), as a fundamental capability, has gained increasing attention with the growing focus on spatial intelligence. However, current obstacle-avoidance methods mainly depend on limited field-of-view sensors and are ill-suited for UAV scenarios which require full-spatial awareness when the movement direction differs from the UAV's heading. This limitation motivates us to explore omnidirectional obstacle avoidance for panoramic drones with full-view perception. We first study an under explored problem setting in which a UAV must generate collision-free motion in environments with obstacles from arbitrary directions, and then construct a benchmark that consists of three representative flight tasks. Based on such settings, we propose Fly360, a two-stage perception-decision pipeline with a fixed random-yaw training strategy. At the perception stage, panoramic RGB observations are input and converted into depth maps as a robust intermediate representation. For the policy network, it is lightweight and used to output body-frame velocity commands from depth inputs. Extensive simulation and real-world experiments demonstrate that Fly360 achieves stable omnidirectional obstacle avoidance and outperforms forward-view baselines across all tasks. Our model is available at https://zxkai.github.io/fly360/
- Abstract(参考訳): 無人航空機(UAV)の基本能力としての障害物回避は、空間知性への注目が高まり、注目を集めている。
しかし、現在の障害物回避法は主に視野の限られたセンサーに依存しており、移動方向がUAVの進路と異なる場合、完全な空間認識を必要とするUAVシナリオに不適である。
この制限は、パノラマドローンの完全な視界を持つ全方位障害物回避を探求する動機となる。
まず、UAVが任意の方向から障害物のある環境で衝突のない動きを発生させ、次に3つの代表的な飛行課題からなるベンチマークを構築する。
このような設定に基づいて、2段階の知覚決定パイプラインであるFly360を提案する。
知覚段階では、パノラマRGB観測が入力され、堅牢な中間表現として深度マップに変換される。
ポリシーネットワークでは軽量で、深度入力からボディフレーム速度コマンドを出力するのに使用される。
大規模なシミュレーションと実世界の実験により、Fly360は全タスクにわたって全方向の障害物回避を安定に達成し、前方視ベースラインを上回っていることが示された。
私たちのモデルはhttps://zxkai.github.io/fly360/で利用可能です。
関連論文リスト
- SpectraSentinel: LightWeight Dual-Stream Real-Time Drone Detection, Tracking and Payload Identification [0.0903415485511869]
民間空域でのドローンの拡散は、緊急のセキュリティ上の懸念を引き起こしている。
2025年のVIPカップの課題に対応するため、我々は2ストリームのドローン監視フレームワークを提案する。
我々のアプローチでは、並列赤外(熱)および可視(RGB)データストリーム上に、独立してYou Only Look Once v11-nano (YOLOv11n)オブジェクト検出器をデプロイする。
論文 参考訳(メタデータ) (2025-07-30T13:10:13Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - Open-World Drone Active Tracking with Goal-Centered Rewards [62.21394499788672]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATは,世界初となるエア・ツー・グラウンド・トラッキング・ベンチマークである。
また,複雑なシナリオにおけるドローン追跡目標の性能向上を目的としたGC-VATを提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Monocular Obstacle Avoidance Based on Inverse PPO for Fixed-wing UAVs [29.207513994002202]
固定翼無人航空機(英語: Fixed-wing Unmanned Aerial Vehicles、UAV)は、低高度経済(LAE)と都市空運(UAM)のための最も一般的なプラットフォームの一つである。
従来の地図や高度なセンサーに依存する古典的な障害物回避システムは、未知の低高度環境や小型UAVプラットフォームにおいて制限に直面している。
本稿では,DRLに基づくUAV衝突回避システムを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:03:37Z) - Radiance Field Learners As UAV First-Person Viewers [36.59524833437512]
第一パーソンビュー(FPV)は無人航空機(UAV)の軌道に革命をもたらす大きな可能性を秘めている
従来のNeNeRF(Neural Radiance Field)手法は、粒度ごとに単一点をサンプリングするといった課題に直面している。
FPV-NeRFを導入し、これらの課題に3つの重要な面を通して対処する。
論文 参考訳(メタデータ) (2024-08-10T12:29:11Z) - Clustering-based Learning for UAV Tracking and Pose Estimation [0.0]
本研究は,UAV追跡と2種類のLiDARを用いたポーズ推定のためのクラスタリングに基づく学習検出手法であるCL-Detを開発する。
まず、Livox AviaデータとLiDAR 360データのタイムスタンプを調整し、その後、関心のあるオブジェクト(OOI)のポイントクラウドを環境から分離します。
提案手法は,CVPR 2024 UG2+ Challengeの最終リーダーボードにおいて,競争力のあるポーズ推定性能を示し,第5位にランクインする。
論文 参考訳(メタデータ) (2024-05-27T06:33:25Z) - UAV Obstacle Avoidance by Human-in-the-Loop Reinforcement in Arbitrary
3D Environment [17.531224704021273]
本稿では, 深部強化学習に基づく無人航空機(UAV)の連続制御に着目した。
本稿では,UAVが飛行中の障害物を自動的に回避できる深層強化学習(DRL)法を提案する。
論文 参考訳(メタデータ) (2023-04-07T01:44:05Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。