論文の概要: Ultra-High-Frequency Harmony: mmWave Radar and Event Camera Orchestrate Accurate Drone Landing
- arxiv url: http://arxiv.org/abs/2502.14992v1
- Date: Thu, 20 Feb 2025 19:29:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 19:42:03.259218
- Title: Ultra-High-Frequency Harmony: mmWave Radar and Event Camera Orchestrate Accurate Drone Landing
- Title(参考訳): 超高周波高調波:mmWaveレーダとイベントカメラオーケストラの正確なドローン着陸
- Authors: Haoyang Wang, Jingao Xu, Xinyu Luo, Xuecheng Chen, Ting Zhang, Ruiyang Duan, Yunhao Liu, Xinlei Chen,
- Abstract要約: 我々は、従来のフレームカメラをイベントカメラに置き換える。これは、サンプリング周波数と地上プラットフォーム設定内のmmWaveレーダとを調和させる新しいセンサーである。
mmE-Locは、ドローン着陸用に設計された高精度で低遅延の地上局地化システムである。
- 参考スコア(独自算出の注目度): 25.30626306621544
- License:
- Abstract: For precise, efficient, and safe drone landings, ground platforms should real-time, accurately locate descending drones and guide them to designated spots. While mmWave sensing combined with cameras improves localization accuracy, the lower sampling frequency of traditional frame cameras compared to mmWave radar creates bottlenecks in system throughput. In this work, we replace the traditional frame camera with event camera, a novel sensor that harmonizes in sampling frequency with mmWave radar within the ground platform setup, and introduce mmE-Loc, a high-precision, low-latency ground localization system designed for drone landings. To fully leverage the \textit{temporal consistency} and \textit{spatial complementarity} between these modalities, we propose two innovative modules, \textit{consistency-instructed collaborative tracking} and \textit{graph-informed adaptive joint optimization}, for accurate drone measurement extraction and efficient sensor fusion. Extensive real-world experiments in landing scenarios from a leading drone delivery company demonstrate that mmE-Loc outperforms state-of-the-art methods in both localization accuracy and latency.
- Abstract(参考訳): 正確な、効率的で安全なドローン着陸のためには、地上プラットフォームはリアルタイムで降下するドローンを正確に見つけ、指定された場所に誘導する必要がある。
mmWaveセンサとカメラを組み合わせることで、ローカライズ精度が向上する一方、従来のフレームカメラのサンプリング周波数は、mmWaveレーダと比較して低いため、システムスループットのボトルネックが生じる。
本研究は,従来のフレームカメラをイベントカメラに置き換え,地上プラットフォームにおけるサンプリング周波数とmWaveレーダを調和させる新しいセンサを開発し,ドローン着陸用に設計された高精度で低遅延の地上局地化システムであるmE-Locを導入する。
これらのモダリティ間での「textit{temporal consistency}」と「textit{spatial complementarity}」を完全に活用するために、正確なドローン計測と効率的なセンサー融合のための「textit{consistency-instructed collaborative tracking}」と「textit{graph-informed Adaptive Joint Optimization」の2つの革新的なモジュールを提案する。
mmE-Locは、ローカライゼーションの精度とレイテンシの両方において、最先端の手法よりも優れています。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - DPFT: Dual Perspective Fusion Transformer for Camera-Radar-based Object Detection [0.7919810878571297]
デュアル・パースペクティブ・フュージョン・トランス (DPFT) と呼ばれる新しいカメラレーダ融合手法を提案する。
本手法では,処理された点雲の代わりに,低レベルのレーダデータ(レーダキューブ)を活用して,できるだけ多くの情報を保存する。
DPFTは、K-Radarデータセットの最先端性能を実証し、悪天候に対する顕著な堅牢性を示した。
論文 参考訳(メタデータ) (2024-04-03T18:54:27Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - Millimeter Wave Drones with Cameras: Computer Vision Aided Wireless Beam
Prediction [8.919072533905517]
ミリ波(mmWave)とテラヘルツ(THz)のドローンは、いくつかの未来的な応用を可能にする可能性がある。
これらのドローンは、大きなアンテナアレイを配置し、十分なリンク予算を維持するために狭い指向ビームを使用する必要がある。
本稿では,ドローンに搭載されたカメラから収集した視覚データを活用する,視覚支援型機械学習アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-14T17:42:16Z) - HuPR: A Benchmark for Human Pose Estimation Using Millimeter Wave Radar [30.51398364813315]
本稿では,ミリ波レーダを用いた人間のポーズ推定ベンチマーク「Human Pose with Millimeter Wave Radar (HuPR)」を紹介する。
このデータセットは、レーダに基づく人間のポーズ推定のクロスモダリティトレーニングのために、クロスキャリブレーションされたmmWaveレーダセンサとモノクラーRGBカメラを用いて作成される。
論文 参考訳(メタデータ) (2022-10-22T22:28:40Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Planetary UAV localization based on Multi-modal Registration with
Pre-existing Digital Terrain Model [0.5156484100374058]
我々は,UAV上のナディルビューカメラを用いて,惑星UAVの位置を推定するマルチモーダル登録に基づくSLAMアルゴリズムを提案する。
オンボードUAV画像とプリインストールデジタル地形モデルとのスケールと外観の違いを克服するために,UAV画像とDEMの地形特性がクロスパワースペクトルを介して周波数領域で相関できることを示す理論的モデルを提案した。
提案するローカライゼーションアルゴリズムのロバスト性と有効性をテストするために,惑星探査のための新しいクロスソースドローンベースのローカライゼーションデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-24T02:54:01Z) - Distributed Variable-Baseline Stereo SLAM from two UAVs [17.513645771137178]
本稿では,単眼カメラを1台,IMUを1台搭載した2台のUAVを用いて,視界の重なりと相対距離の測定を行った。
本稿では,glsuavエージェントを自律的に制御するために,分散協調推定方式を提案する。
我々は,高度160mまでの飛行におけるアプローチの有効性を実証し,最先端のVIO手法の能力を大きく超えている。
論文 参考訳(メタデータ) (2020-09-10T12:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。