論文の概要: Griffin: Aerial-Ground Cooperative Detection and Tracking Dataset and Benchmark
- arxiv url: http://arxiv.org/abs/2503.06983v1
- Date: Mon, 10 Mar 2025 07:00:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:46:03.948580
- Title: Griffin: Aerial-Ground Cooperative Detection and Tracking Dataset and Benchmark
- Title(参考訳): Griffin: Aerial-Ground Cooperative Detection and Tracking Dataset and Benchmark
- Authors: Jiahao Wang, Xiangyu Cao, Jiaru Zhong, Yuner Zhang, Haibao Yu, Lei He, Shaobing Xu,
- Abstract要約: 航空と地上の協力は、UAVの空中視界と地上の車両の局部的な観測を統合することで、有望な解決策を提供する。
本稿では,3つの重要な貢献を通じて,地上3次元協調認識のための包括的ソリューションを提案する。
- 参考スコア(独自算出の注目度): 15.405137983083875
- License:
- Abstract: Despite significant advancements, autonomous driving systems continue to struggle with occluded objects and long-range detection due to the inherent limitations of single-perspective sensing. Aerial-ground cooperation offers a promising solution by integrating UAVs' aerial views with ground vehicles' local observations. However, progress in this emerging field has been hindered by the absence of public datasets and standardized evaluation benchmarks. To address this gap, this paper presents a comprehensive solution for aerial-ground cooperative 3D perception through three key contributions: (1) Griffin, a large-scale multi-modal dataset featuring over 200 dynamic scenes (30k+ frames) with varied UAV altitudes (20-60m), diverse weather conditions, and occlusion-aware 3D annotations, enhanced by CARLA-AirSim co-simulation for realistic UAV dynamics; (2) A unified benchmarking framework for aerial-ground cooperative detection and tracking tasks, including protocols for evaluating communication efficiency, latency tolerance, and altitude adaptability; (3) AGILE, an instance-level intermediate fusion baseline that dynamically aligns cross-view features through query-based interaction, achieving an advantageous balance between communication overhead and perception accuracy. Extensive experiments prove the effectiveness of aerial-ground cooperative perception and demonstrate the direction of further research. The dataset and codes are available at https://github.com/wang-jh18-SVM/Griffin.
- Abstract(参考訳): 大幅な進歩にもかかわらず、自律運転システムは、単一知覚知覚の固有の制限のため、隠蔽された物体と長距離検出に苦戦し続けている。
航空と地上の協力は、UAVの空中視界と地上の車両の局部的な観測を統合することで、有望な解決策を提供する。
しかし、この新興分野の進歩は、公開データセットと標準化された評価ベンチマークが欠如していることによって妨げられている。
このギャップに対処するために,本論文では,(1)UAV高度の異なる200以上の動的シーン(30k以上のフレーム)を特徴とする大規模マルチモーダルデータセットであるGriffin, CARLA-AirSimによる現実的UAVダイナミックスシミュレーションによる拡張,(2)通信効率,遅延耐性,および高度適応性を評価するプロトコルを含む,地上協調検出・追跡タスクのための統合ベンチマークフレームワーク,(3)クエリベースのインタラクションを通じて,クロスビュー機能を動的に調整するインスタンスレベルの中間核融合ベースラインであるAGILE,の3つの主要なコントリビューションを用いて,空中協調3次元認識のための総合的なソリューションを提案する。
大規模な実験は、地上共同認識の有効性を証明し、さらなる研究の方向性を示す。
データセットとコードはhttps://github.com/wang-jh18-SVM/Griffin.comで公開されている。
関連論文リスト
- A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Clustering-based Learning for UAV Tracking and Pose Estimation [0.0]
本研究は,UAV追跡と2種類のLiDARを用いたポーズ推定のためのクラスタリングに基づく学習検出手法であるCL-Detを開発する。
まず、Livox AviaデータとLiDAR 360データのタイムスタンプを調整し、その後、関心のあるオブジェクト(OOI)のポイントクラウドを環境から分離します。
提案手法は,CVPR 2024 UG2+ Challengeの最終リーダーボードにおいて,競争力のあるポーズ推定性能を示し,第5位にランクインする。
論文 参考訳(メタデータ) (2024-05-27T06:33:25Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Disentangle Your Dense Object Detector [82.22771433419727]
深層学習に基づく高密度物体検出器はここ数年で大きな成功を収め、ビデオ理解などのマルチメディアアプリケーションにも応用されてきた。
しかし、現在の高密度検出器の訓練パイプラインは、保持できない多くの接続に妥協されている。
そこで本研究では, 簡易かつ効果的な遠心分離機構を設計し, 現在の最先端検出器に統合するDED(Disentangled Dense Object Detector)を提案する。
論文 参考訳(メタデータ) (2021-07-07T00:52:16Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z) - A Vision Based Deep Reinforcement Learning Algorithm for UAV Obstacle
Avoidance [1.2693545159861856]
UAV障害物回避のための探索を改善するための2つの技術を紹介します。
ひとつは収束に基づくアプローチで、探索されていない動作と時間しきい値を反復して探索と搾取のバランスをとる。
2つ目は、ガウス混合分布を用いて予測された次の状態と比較し、次のアクションを選択するためのガイダンスベースアプローチである。
論文 参考訳(メタデータ) (2021-03-11T01:15:26Z) - Correlation Filters for Unmanned Aerial Vehicle-Based Aerial Tracking: A
Review and Experimental Evaluation [17.8941834997338]
識別相関フィルタ (DCF) ベースのトラッカーは, 単一のCPU上での高い計算効率とロバスト性で注目されている。
この研究では、23の最先端のDCFベースのトラッカーが、様々な問題を解決するためのイノベーションに従って要約されている。
実験では、UAVトラッキングにおけるDCFベースのトラッカーの現在の課題として、パフォーマンスを示し、実現可能性を検証する。
論文 参考訳(メタデータ) (2020-10-13T09:35:40Z) - Distributed Variable-Baseline Stereo SLAM from two UAVs [17.513645771137178]
本稿では,単眼カメラを1台,IMUを1台搭載した2台のUAVを用いて,視界の重なりと相対距離の測定を行った。
本稿では,glsuavエージェントを自律的に制御するために,分散協調推定方式を提案する。
我々は,高度160mまでの飛行におけるアプローチの有効性を実証し,最先端のVIO手法の能力を大きく超えている。
論文 参考訳(メタデータ) (2020-09-10T12:16:10Z) - Autonomous and cooperative design of the monitor positions for a team of
UAVs to maximize the quantity and quality of detected objects [0.5801044612920815]
本稿では、完全に未知の地形内にUAVの群れを配置する問題に取り組む。
YOLOv3と複製対象を識別するシステムを用いて、各UAVの構成に1つのスコアを割り当てた。
予め定義されたスコアを最適化できる新しいナビゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:52:57Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。