論文の概要: 3D Reconstruction of Multiple Objects by mmWave Radar on UAV
- arxiv url: http://arxiv.org/abs/2211.02150v1
- Date: Thu, 3 Nov 2022 21:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 16:19:29.798201
- Title: 3D Reconstruction of Multiple Objects by mmWave Radar on UAV
- Title(参考訳): UAV上のミリ波レーダによる複数物体の3次元再構成
- Authors: Yue Sun, Zhuoming Huang, Honggang Zhang, Xiaohui Liang
- Abstract要約: UAVに搭載されたミリ波レーダーセンサを用いて空間内の複数の物体の3次元形状を再構成する可能性を検討する。
UAVは宇宙の様々な場所でホバリングし、搭載されたレーダーセンサーはSAR(Synthetic Aperture Radar)操作で空間をスキャンすることで生のレーダーデータを収集する。
レーダデータはディープニューラルネットワークモデルに送信され、空間内の複数のオブジェクトの点雲再構成を出力する。
- 参考スコア(独自算出の注目度): 15.47494720280318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the feasibility of utilizing a mmWave radar sensor
installed on a UAV to reconstruct the 3D shapes of multiple objects in a space.
The UAV hovers at various locations in the space, and its onboard radar senor
collects raw radar data via scanning the space with Synthetic Aperture Radar
(SAR) operation. The radar data is sent to a deep neural network model, which
outputs the point cloud reconstruction of the multiple objects in the space. We
evaluate two different models. Model 1 is our recently proposed 3DRIMR/R2P
model, and Model 2 is formed by adding a segmentation stage in the processing
pipeline of Model 1. Our experiments have demonstrated that both models are
promising in solving the multiple object reconstruction problem. We also show
that Model 2, despite producing denser and smoother point clouds, can lead to
higher reconstruction loss or even loss of objects. In addition, we find that
both models are robust to the highly noisy radar data obtained by unstable SAR
operation due to the instability or vibration of a small UAV hovering at its
intended scanning point. Our exploratory study has shown a promising direction
of applying mmWave radar sensing in 3D object reconstruction.
- Abstract(参考訳): 本稿では,UAVに搭載されたミリ波レーダセンサを用いて空間内の複数の物体の3次元形状を再構成する可能性を検討する。
UAVは宇宙の様々な場所でホバリングし、搭載されたレーダーセンサーはSAR(Synthetic Aperture Radar)で空間をスキャンすることで生のレーダーデータを収集する。
レーダデータはディープニューラルネットワークモデルに送信され、空間内の複数のオブジェクトの点雲再構成を出力する。
我々は2つの異なるモデルを評価する。
model 1は、最近提案された3drimr/r2pモデルであり、model 1の処理パイプラインにセグメンテーションステージを追加することでmodel 2が形成される。
実験により, 両モデルとも多重物体復元問題に有望であることが証明された。
また,モデル2はより濃密で滑らかな点雲を発生させるが,復元損失や物体の損失を増加させる可能性があることを示した。
さらに、両モデルとも、意図した走査点に浮かぶ小型UAVの不安定性や振動により不安定なSAR動作によって得られた高ノイズレーダデータに対して頑健であることが判明した。
本研究は3次元物体再構成にmmWaveレーダセンシングを応用するための有望な方向を示すものである。
関連論文リスト
- Reviewing 3D Object Detectors in the Context of High-Resolution 3+1D
Radar [0.7279730418361995]
高分解能4D(3+1D)レーダーセンサーは、ディープラーニングに基づくレーダー知覚の研究を行っている。
本研究では,3次元物体検出のためのレーダポイントクラウドで動作するディープラーニングモデルについて検討する。
論文 参考訳(メタデータ) (2023-08-10T10:10:43Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - R2P: A Deep Learning Model from mmWave Radar to Point Cloud [14.803119281557995]
Radar to Point Cloud (R2P)は3Dオブジェクトの滑らかで密度が高く、高精度なポイントクラウド表現を生成するディープラーニングモデルである。
R2Pは、最近提案した3DRIMR(3D Restruction and Imaging via mmWave Radar)システムのステージ2を置き換える。
論文 参考訳(メタデータ) (2022-07-21T18:01:05Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - DeepPoint: A Deep Learning Model for 3D Reconstruction in Point Clouds
via mmWave Radar [10.119506666546663]
本稿では,3次元オブジェクトをポイントクラウド形式で生成するディープラーニングモデルであるDeepPointを紹介する。
3DRIMRのStage 1で生成されたオブジェクトの2D深度画像を入力として、オブジェクトの滑らかで密度の高い3D点雲を出力する。
実験により,本モデルが元の3DRIMRや他の標準技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-19T18:28:20Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - 3DRIMR: 3D Reconstruction and Imaging via mmWave Radar based on Deep
Learning [9.26903816093995]
mmWaveレーダーは、低視認性、煙、ほこり、密集した霧環境において効果的なセンシング技術として示されている。
3DRIMR(3DRIMR)は,物体の3次元形状を高密度の細かなクラウド形式で再構成する深層学習型アーキテクチャである。
実験により,3DRIMRの3Dオブジェクト再構成の有効性が実証され,標準技術よりも性能が向上した。
論文 参考訳(メタデータ) (2021-08-05T21:24:57Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Learning to Drop Points for LiDAR Scan Synthesis [5.132259673802809]
3Dシーンのジェネラティブモデリングは、モバイルロボットが信頼できない観察を改善するための重要なトピックです。
点雲に関する既存の研究のほとんどは、小さく均一な密度のデータに焦点を当てている。
移動ロボットで広く使われている3次元LiDAR点雲は、多数の点と様々な密度のために扱いにくい。
本論文では,リアルなLiDARデータを改良した2次元表現として合成する,ジェネレーティブ・アドバーサリ・ネットワークに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T21:53:14Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。