論文の概要: R2P: A Deep Learning Model from mmWave Radar to Point Cloud
- arxiv url: http://arxiv.org/abs/2207.10690v1
- Date: Thu, 21 Jul 2022 18:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 12:33:48.042558
- Title: R2P: A Deep Learning Model from mmWave Radar to Point Cloud
- Title(参考訳): R2P: mmWave RadarからPoint Cloudへのディープラーニングモデル
- Authors: Yue Sun, Honggang Zhang, Zhuoming Huang, and Benyuan Liu
- Abstract要約: Radar to Point Cloud (R2P)は3Dオブジェクトの滑らかで密度が高く、高精度なポイントクラウド表現を生成するディープラーニングモデルである。
R2Pは、最近提案した3DRIMR(3D Restruction and Imaging via mmWave Radar)システムのステージ2を置き換える。
- 参考スコア(独自算出の注目度): 14.803119281557995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research has shown the effectiveness of mmWave radar sensing for
object detection in low visibility environments, which makes it an ideal
technique in autonomous navigation systems. In this paper, we introduce Radar
to Point Cloud (R2P), a deep learning model that generates smooth, dense, and
highly accurate point cloud representation of a 3D object with fine geometry
details, based on rough and sparse point clouds with incorrect points obtained
from mmWave radar. These input point clouds are converted from the 2D depth
images that are generated from raw mmWave radar sensor data, characterized by
inconsistency, and orientation and shape errors. R2P utilizes an architecture
of two sequential deep learning encoder-decoder blocks to extract the essential
features of those radar-based input point clouds of an object when observed
from multiple viewpoints, and to ensure the internal consistency of a generated
output point cloud and its accurate and detailed shape reconstruction of the
original object. We implement R2P to replace Stage 2 of our recently proposed
3DRIMR (3D Reconstruction and Imaging via mmWave Radar) system. Our experiments
demonstrate the significant performance improvement of R2P over the popular
existing methods such as PointNet, PCN, and the original 3DRIMR design.
- Abstract(参考訳): 近年の研究では、低視認性環境におけるオブジェクト検出におけるmmWaveレーダセンシングの有効性が示されており、自律ナビゲーションシステムにおいて理想的な手法である。
本稿では,mmwaveレーダから得られた不正確な点を持つ粗さと疎さに基づく,微細な幾何学的詳細を持つ3次元物体の滑らかで高密度,高精度な点雲表現を生成するディープラーニングモデルであるradar to point cloud (r2p)について紹介する。
これらの入力点雲は、生のmm波レーダセンサデータから生成された2次元深度画像から変換され、不整合と向きと形状誤差が特徴である。
R2Pは、2つのシーケンシャルディープラーニングエンコーダ・デコーダブロックのアーキテクチャを用いて、複数の視点から観測されたオブジェクトのレーダベースの入力点雲の本質的な特徴を抽出し、生成された出力点雲の内部の一貫性と、その正確かつ詳細な元のオブジェクトの形状再構成を保証する。
我々は最近提案した3DRIMR(3D Restruction and Imaging via mmWave Radar)システムのステージ2を置き換えるためにR2Pを実装した。
本実験は,PointNetやPCN,オリジナル3DRIMRといった既存の手法に比べて,R2Pの大幅な性能向上を示すものである。
関連論文リスト
- GET-UP: GEomeTric-aware Depth Estimation with Radar Points UPsampling [7.90238039959534]
既存のアルゴリズムは3Dポイントを画像面に投影してレーダデータを処理し、画素レベルの特徴抽出を行う。
レーダデータから2次元情報と3次元情報を交換・集約するために,注目度の高いグラフニューラルネットワーク(GNN)を利用するGET-UPを提案する。
提案したGET-UPをnuScenesデータセット上でベンチマークし,従来最高のパフォーマンスモデルよりも15.3%,14.7%改善した。
論文 参考訳(メタデータ) (2024-09-02T14:15:09Z) - PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - Diffusion-Based Point Cloud Super-Resolution for mmWave Radar Data [8.552647576661174]
ミリ波レーダセンサは、環境条件下では安定した性能を維持している。
レーダー点雲は比較的希薄で、巨大なゴーストポイントを含んでいる。
本稿では3次元ミリ波レーダデータに対する新しい点雲超解像法,Radar-diffusionを提案する。
論文 参考訳(メタデータ) (2024-04-09T04:41:05Z) - 3D Reconstruction of Multiple Objects by mmWave Radar on UAV [15.47494720280318]
UAVに搭載されたミリ波レーダーセンサを用いて空間内の複数の物体の3次元形状を再構成する可能性を検討する。
UAVは宇宙の様々な場所でホバリングし、搭載されたレーダーセンサーはSAR(Synthetic Aperture Radar)操作で空間をスキャンすることで生のレーダーデータを収集する。
レーダデータはディープニューラルネットワークモデルに送信され、空間内の複数のオブジェクトの点雲再構成を出力する。
論文 参考訳(メタデータ) (2022-11-03T21:23:36Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - DeepPoint: A Deep Learning Model for 3D Reconstruction in Point Clouds
via mmWave Radar [10.119506666546663]
本稿では,3次元オブジェクトをポイントクラウド形式で生成するディープラーニングモデルであるDeepPointを紹介する。
3DRIMRのStage 1で生成されたオブジェクトの2D深度画像を入力として、オブジェクトの滑らかで密度の高い3D点雲を出力する。
実験により,本モデルが元の3DRIMRや他の標準技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-19T18:28:20Z) - 3DRIMR: 3D Reconstruction and Imaging via mmWave Radar based on Deep
Learning [9.26903816093995]
mmWaveレーダーは、低視認性、煙、ほこり、密集した霧環境において効果的なセンシング技術として示されている。
3DRIMR(3DRIMR)は,物体の3次元形状を高密度の細かなクラウド形式で再構成する深層学習型アーキテクチャである。
実験により,3DRIMRの3Dオブジェクト再構成の有効性が実証され,標準技術よりも性能が向上した。
論文 参考訳(メタデータ) (2021-08-05T21:24:57Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。