論文の概要: MCOP: Multi-UAV Collaborative Occupancy Prediction
- arxiv url: http://arxiv.org/abs/2510.12679v2
- Date: Wed, 15 Oct 2025 01:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 13:11:49.487388
- Title: MCOP: Multi-UAV Collaborative Occupancy Prediction
- Title(参考訳): MCOP:マルチUAV共同作業予測
- Authors: Zefu Lin, Wenbo Chen, Xiaojuan Jin, Yuran Yang, Lue Fan, Yixin Zhang, Yufeng Zhang, Zhaoxiang Zhang,
- Abstract要約: Current Bird's Eye View (BEV)ベースのアプローチには2つの大きな制限がある。
本稿では,複数UAV共同占有予測フレームワークを提案する。
提案手法は最先端の精度を達成し,既存の協調手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 40.58729551462363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned Aerial Vehicle (UAV) swarm systems necessitate efficient collaborative perception mechanisms for diverse operational scenarios. Current Bird's Eye View (BEV)-based approaches exhibit two main limitations: bounding-box representations fail to capture complete semantic and geometric information of the scene, and their performance significantly degrades when encountering undefined or occluded objects. To address these limitations, we propose a novel multi-UAV collaborative occupancy prediction framework. Our framework effectively preserves 3D spatial structures and semantics through integrating a Spatial-Aware Feature Encoder and Cross-Agent Feature Integration. To enhance efficiency, we further introduce Altitude-Aware Feature Reduction to compactly represent scene information, along with a Dual-Mask Perceptual Guidance mechanism to adaptively select features and reduce communication overhead. Due to the absence of suitable benchmark datasets, we extend three datasets for evaluation: two virtual datasets (Air-to-Pred-Occ and UAV3D-Occ) and one real-world dataset (GauUScene-Occ). Experiments results demonstrate that our method achieves state-of-the-art accuracy, significantly outperforming existing collaborative methods while reducing communication overhead to only a fraction of previous approaches.
- Abstract(参考訳): Unmanned Aerial Vehicle (UAV) swarm system は多様な運用シナリオに対して効率的な協調認識機構を必要とする。
現在のBird's Eye View(BEV)ベースのアプローチでは、境界ボックス表現がシーンの完全な意味情報や幾何学的情報をキャプチャできないこと、未定義または隠されたオブジェクトに遭遇した場合のパフォーマンスが著しく低下すること、の2つの主な制限が示される。
これらの制約に対処するため、我々は新しい複数UAV協調占有予測フレームワークを提案する。
本フレームワークは,空間認識機能エンコーダとクロスエージェント機能統合を統合し,3次元空間構造とセマンティクスを効果的に保存する。
効率を向上させるために,シーン情報をコンパクトに表現するAltitude-Aware Feature Reductionと,特徴を適応的に選択し,通信オーバーヘッドを低減するDual-Mask Perceptual Guidanceメカニズムを導入する。
適切なベンチマークデータセットがないため、2つの仮想データセット(Air-to-Pred-OccとUAV3D-Occ)と1つの実世界のデータセット(Gauuscene-Occ)の3つの評価データセットを拡張した。
実験の結果,提案手法は最先端の精度を実現し,既存の協調手法を著しく上回り,通信オーバヘッドを若干の既存手法に減らした。
関連論文リスト
- INSTINCT: Instance-Level Interaction Architecture for Query-Based Collaborative Perception [6.018757656052237]
協調認識システムは、マルチエージェントの知覚データを統合し、精度と安全性を向上させることで、単一車両の制限を克服する。
これまでの研究は、クエリベースのインスタンスレベルのインタラクションが帯域幅の要求と手作業による事前処理を減らすことを証明してきたが、協調認識におけるLiDARによる実装は未開発のままである。
InSTINCTは,(1)高品質なインスタンス特徴選択のための品質認識型フィルタリング機構,2)協調関連インスタンスと協調関連インスタンスを分離するデュアルブランチ検出ルーティングスキーム,3)クロスエージェントローカルインスタンスフュージョンモジュール,の3つのコアコンポーネントを特徴とする新しい協調認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-28T07:16:32Z) - Mitigating Trade-off: Stream and Query-guided Aggregation for Efficient and Effective 3D Occupancy Prediction [12.064509280163502]
3Dの占有率予測は、自動運転の重要な認識課題として浮上している。
近年の研究では、過去の観測から得られた情報の統合に焦点が当てられ、予測精度が向上している。
本稿では,過去の情報をストリームベースで集約するフレームワークStreamOccを提案する。
Occ3D-nusデータセットの実験によると、StreamOccはリアルタイム設定で最先端のパフォーマンスを実現し、メモリ使用量を従来の方法に比べて50%以上削減している。
論文 参考訳(メタデータ) (2025-03-28T02:05:53Z) - Which2comm: An Efficient Collaborative Perception Framework for 3D Object Detection [5.195291754828701]
協調認識は、リアルタイムのエージェント間の情報交換を可能にする。
実用シナリオにおける通信帯域幅の制限は、エージェント間データ転送量を制限する。
オブジェクトレベルのスパース機能を利用した新しいマルチエージェント3Dオブジェクト検出フレームワークであるH which2commを提案する。
論文 参考訳(メタデータ) (2025-03-21T14:24:07Z) - Griffin: Aerial-Ground Cooperative Detection and Tracking Dataset and Benchmark [15.405137983083875]
航空と地上の協力は、UAVの空中視界と地上の車両の局部的な観測を統合することで、有望な解決策を提供する。
本稿では,3つの重要な貢献を通じて,地上3次元協調認識のための包括的ソリューションを提案する。
論文 参考訳(メタデータ) (2025-03-10T07:00:07Z) - ALOcc: Adaptive Lifting-Based 3D Semantic Occupancy and Cost Volume-Based Flow Predictions [91.55655961014027]
シーン理解には3次元セマンティック占有とフロー予測が不可欠である。
本稿では,3つの改善点を目標とした視覚ベースのフレームワークを提案する。
我々の純粋な畳み込みアーキテクチャは、セマンティック占有率とジョイントセマンティックフロー予測の両方のために、複数のベンチマーク上で新しいSOTA性能を確立する。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。