論文の概要: Drones Help Drones: A Collaborative Framework for Multi-Drone Object Trajectory Prediction and Beyond
- arxiv url: http://arxiv.org/abs/2405.14674v1
- Date: Thu, 23 May 2024 15:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 14:26:04.207253
- Title: Drones Help Drones: A Collaborative Framework for Multi-Drone Object Trajectory Prediction and Beyond
- Title(参考訳): ドローンがドローンを助ける: 多次元物体軌道予測のための協調的フレームワーク
- Authors: Zhechao Wang, Peirui Cheng, Mingxin Chen, Pengju Tian, Zhirui Wang, Xinming Li, Xue Yang, Xian Sun,
- Abstract要約: 協調軌道予測は、多視点補完情報を通して、オブジェクトの将来の動きを包括的に予測することができる。
本研究では,精密なバードアイビュー表現を生成するために,DHD(Drones Help Drones)という新しいフレームワークを提案する。
DHDは、BEV表現における位置ずれを20%以上削減し、相互作用の伝達比の4分の1しか必要としない。
- 参考スコア(独自算出の注目度): 14.635604544350198
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Collaborative trajectory prediction can comprehensively forecast the future motion of objects through multi-view complementary information. However, it encounters two main challenges in multi-drone collaboration settings. The expansive aerial observations make it difficult to generate precise Bird's Eye View (BEV) representations. Besides, excessive interactions can not meet real-time prediction requirements within the constrained drone-based communication bandwidth. To address these problems, we propose a novel framework named "Drones Help Drones" (DHD). Firstly, we incorporate the ground priors provided by the drone's inclined observation to estimate the distance between objects and drones, leading to more precise BEV generation. Secondly, we design a selective mechanism based on the local feature discrepancy to prioritize the critical information contributing to prediction tasks during inter-drone interactions. Additionally, we create the first dataset for multi-drone collaborative prediction, named "Air-Co-Pred", and conduct quantitative and qualitative experiments to validate the effectiveness of our DHD framework.The results demonstrate that compared to state-of-the-art approaches, DHD reduces position deviation in BEV representations by over 20% and requires only a quarter of the transmission ratio for interactions while achieving comparable prediction performance. Moreover, DHD also shows promising generalization to the collaborative 3D object detection in CoPerception-UAVs.
- Abstract(参考訳): 協調軌道予測は、多視点補完情報を通して、オブジェクトの将来の動きを包括的に予測することができる。
しかし、マルチドローンのコラボレーション設定では2つの大きな課題に直面している。
広範にわたる航空観測により、正確なバードアイビュー(BEV)表現の生成が困難になる。
さらに、過剰なインタラクションは、制約されたドローンベースの通信帯域内でのリアルタイムな予測要求を満たすことができない。
これらの問題に対処するため,我々はDrones Help Drones (DHD) という新しいフレームワークを提案する。
まず、物体とドローンの距離を推定するために、ドローンの傾いた観測によって提供される地上の先行情報を組み込むことで、より正確なBEV生成を可能にします。
次に,局所的特徴差に基づく選択的なメカニズムを設計し,ロボット間相互作用における予測タスクに寄与する重要な情報を優先する。
さらに,DHDフレームワークの有効性を検証するために,"Air-Co-Pred"と呼ばれるマルチドローン共同予測のための最初のデータセットを作成し,定量的かつ定性的な実験を行った。
さらに、DHDはCoPerception-UAVにおける協調的な3Dオブジェクト検出に有望な一般化を示す。
関連論文リスト
- DroneMOT: Drone-based Multi-Object Tracking Considering Detection Difficulties and Simultaneous Moving of Drones and Objects [6.449663756698312]
監視カメラなどの静的プラットフォーム上でのマルチオブジェクトトラッキング(MOT)は、大きな進歩を遂げている。
しかし、ドローンのような動的プラットフォームに関しては、従来のMOT手法の有効性は著しく低下している。
本稿では,ドローンによる物体検出の高速化と,小型でぼやけた,隠蔽された物体に対する特徴埋め込みを目的とした,ドローンの高速移動を考慮したDroneMOTを提案する。
論文 参考訳(メタデータ) (2024-07-12T07:18:18Z) - UVCPNet: A UAV-Vehicle Collaborative Perception Network for 3D Object Detection [11.60579201022641]
地上共同作業に特化して設計された枠組みを提案する。
研究のためにV2U-COOという仮想データセットを開発した。
第2に、ターゲット情報を調整するために、クロスドメイン・クロスアダプティブ(CDCA)モジュールを設計する。
第3に,より正確な深度推定結果を得るために,協調深度最適化(CDO)モジュールを導入する。
論文 参考訳(メタデータ) (2024-06-07T05:25:45Z) - C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - CMP: Cooperative Motion Prediction with Multi-Agent Communication [21.60646440715162]
本稿では,協調動作予測の実現可能性と有効性について検討する。
提案手法であるCMPは,LiDAR信号をモデル入力とし,追跡と予測能力を向上させる。
特に、CMPは平均予測誤差を16.4%削減し、検出精度は低下している。
論文 参考訳(メタデータ) (2024-03-26T17:53:27Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - A3D: Adaptive, Accurate, and Autonomous Navigation for Edge-Assisted
Drones [12.439787085435661]
本稿では,エッジサーバによるドローンナビゲーションフレームワークであるA3Dを提案する。
A3Dは、非適応的なソリューションと比較して、エンドツーエンドのレイテンシを28.06%削減し、フライト距離を27.28%まで拡張することができる。
論文 参考訳(メタデータ) (2023-07-19T10:23:28Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - BEVerse: Unified Perception and Prediction in Birds-Eye-View for
Vision-Centric Autonomous Driving [92.05963633802979]
マルチカメラシステムに基づく3次元認識と予測のための統合フレームワークであるBEVerseを提案する。
マルチタスクBEVerseは3次元オブジェクト検出,セマンティックマップ構築,動き予測において単一タスク法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-19T17:55:35Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。