論文の概要: 3D Reconstruction of Multiple Objects by mmWave Radar on UAV
- arxiv url: http://arxiv.org/abs/2211.02150v1
- Date: Thu, 3 Nov 2022 21:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 16:19:29.798201
- Title: 3D Reconstruction of Multiple Objects by mmWave Radar on UAV
- Title(参考訳): UAV上のミリ波レーダによる複数物体の3次元再構成
- Authors: Yue Sun, Zhuoming Huang, Honggang Zhang, Xiaohui Liang
- Abstract要約: UAVに搭載されたミリ波レーダーセンサを用いて空間内の複数の物体の3次元形状を再構成する可能性を検討する。
UAVは宇宙の様々な場所でホバリングし、搭載されたレーダーセンサーはSAR(Synthetic Aperture Radar)操作で空間をスキャンすることで生のレーダーデータを収集する。
レーダデータはディープニューラルネットワークモデルに送信され、空間内の複数のオブジェクトの点雲再構成を出力する。
- 参考スコア(独自算出の注目度): 15.47494720280318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the feasibility of utilizing a mmWave radar sensor
installed on a UAV to reconstruct the 3D shapes of multiple objects in a space.
The UAV hovers at various locations in the space, and its onboard radar senor
collects raw radar data via scanning the space with Synthetic Aperture Radar
(SAR) operation. The radar data is sent to a deep neural network model, which
outputs the point cloud reconstruction of the multiple objects in the space. We
evaluate two different models. Model 1 is our recently proposed 3DRIMR/R2P
model, and Model 2 is formed by adding a segmentation stage in the processing
pipeline of Model 1. Our experiments have demonstrated that both models are
promising in solving the multiple object reconstruction problem. We also show
that Model 2, despite producing denser and smoother point clouds, can lead to
higher reconstruction loss or even loss of objects. In addition, we find that
both models are robust to the highly noisy radar data obtained by unstable SAR
operation due to the instability or vibration of a small UAV hovering at its
intended scanning point. Our exploratory study has shown a promising direction
of applying mmWave radar sensing in 3D object reconstruction.
- Abstract(参考訳): 本稿では,UAVに搭載されたミリ波レーダセンサを用いて空間内の複数の物体の3次元形状を再構成する可能性を検討する。
UAVは宇宙の様々な場所でホバリングし、搭載されたレーダーセンサーはSAR(Synthetic Aperture Radar)で空間をスキャンすることで生のレーダーデータを収集する。
レーダデータはディープニューラルネットワークモデルに送信され、空間内の複数のオブジェクトの点雲再構成を出力する。
我々は2つの異なるモデルを評価する。
model 1は、最近提案された3drimr/r2pモデルであり、model 1の処理パイプラインにセグメンテーションステージを追加することでmodel 2が形成される。
実験により, 両モデルとも多重物体復元問題に有望であることが証明された。
また,モデル2はより濃密で滑らかな点雲を発生させるが,復元損失や物体の損失を増加させる可能性があることを示した。
さらに、両モデルとも、意図した走査点に浮かぶ小型UAVの不安定性や振動により不安定なSAR動作によって得られた高ノイズレーダデータに対して頑健であることが判明した。
本研究は3次元物体再構成にmmWaveレーダセンシングを応用するための有望な方向を示すものである。
関連論文リスト
- UniBEVFusion: Unified Radar-Vision BEVFusion for 3D Object Detection [2.123197540438989]
多くのレーダービジョン融合モデルではレーダーを希薄なLiDARとして扱い、レーダー固有の情報を過小評価している。
本稿では,レーダー固有データを深度予測プロセスに統合したRDLモジュールを提案する。
また、異なるモードでBEV機能を抽出するUnified Feature Fusion (UFF)アプローチも導入する。
論文 参考訳(メタデータ) (2024-09-23T06:57:27Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Diffusion-Based Point Cloud Super-Resolution for mmWave Radar Data [8.552647576661174]
ミリ波レーダセンサは、環境条件下では安定した性能を維持している。
レーダー点雲は比較的希薄で、巨大なゴーストポイントを含んでいる。
本稿では3次元ミリ波レーダデータに対する新しい点雲超解像法,Radar-diffusionを提案する。
論文 参考訳(メタデータ) (2024-04-09T04:41:05Z) - Reviewing 3D Object Detectors in the Context of High-Resolution 3+1D
Radar [0.7279730418361995]
高分解能4D(3+1D)レーダーセンサーは、ディープラーニングに基づくレーダー知覚の研究を行っている。
本研究では,3次元物体検出のためのレーダポイントクラウドで動作するディープラーニングモデルについて検討する。
論文 参考訳(メタデータ) (2023-08-10T10:10:43Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - R2P: A Deep Learning Model from mmWave Radar to Point Cloud [14.803119281557995]
Radar to Point Cloud (R2P)は3Dオブジェクトの滑らかで密度が高く、高精度なポイントクラウド表現を生成するディープラーニングモデルである。
R2Pは、最近提案した3DRIMR(3D Restruction and Imaging via mmWave Radar)システムのステージ2を置き換える。
論文 参考訳(メタデータ) (2022-07-21T18:01:05Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - 3DRIMR: 3D Reconstruction and Imaging via mmWave Radar based on Deep
Learning [9.26903816093995]
mmWaveレーダーは、低視認性、煙、ほこり、密集した霧環境において効果的なセンシング技術として示されている。
3DRIMR(3DRIMR)は,物体の3次元形状を高密度の細かなクラウド形式で再構成する深層学習型アーキテクチャである。
実験により,3DRIMRの3Dオブジェクト再構成の有効性が実証され,標準技術よりも性能が向上した。
論文 参考訳(メタデータ) (2021-08-05T21:24:57Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。