論文の概要: DeepPoint: A Deep Learning Model for 3D Reconstruction in Point Clouds
via mmWave Radar
- arxiv url: http://arxiv.org/abs/2109.09188v1
- Date: Sun, 19 Sep 2021 18:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:10:49.550761
- Title: DeepPoint: A Deep Learning Model for 3D Reconstruction in Point Clouds
via mmWave Radar
- Title(参考訳): DeepPoint:mmWaveレーダによる点雲の3次元再構成のためのディープラーニングモデル
- Authors: Yue Sun, Honggang Zhang, Zhuoming Huang, and Benyuan Liu
- Abstract要約: 本稿では,3次元オブジェクトをポイントクラウド形式で生成するディープラーニングモデルであるDeepPointを紹介する。
3DRIMRのStage 1で生成されたオブジェクトの2D深度画像を入力として、オブジェクトの滑らかで密度の高い3D点雲を出力する。
実験により,本モデルが元の3DRIMRや他の標準技術よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 10.119506666546663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has shown that mmWave radar sensing is effective for object
detection in low visibility environments, which makes it an ideal technique in
autonomous navigation systems such as autonomous vehicles. However, due to the
characteristics of radar signals such as sparsity, low resolution, specularity,
and high noise, it is still quite challenging to reconstruct 3D object shapes
via mmWave radar sensing. Built on our recent proposed 3DRIMR (3D
Reconstruction and Imaging via mmWave Radar), we introduce in this paper
DeepPoint, a deep learning model that generates 3D objects in point cloud
format that significantly outperforms the original 3DRIMR design. The model
adopts a conditional Generative Adversarial Network (GAN) based deep neural
network architecture. It takes as input the 2D depth images of an object
generated by 3DRIMR's Stage 1, and outputs smooth and dense 3D point clouds of
the object. The model consists of a novel generator network that utilizes a
sequence of DeepPoint blocks or layers to extract essential features of the
union of multiple rough and sparse input point clouds of an object when
observed from various viewpoints, given that those input point clouds may
contain many incorrect points due to the imperfect generation process of
3DRIMR's Stage 1. The design of DeepPoint adopts a deep structure to capture
the global features of input point clouds, and it relies on an optimally chosen
number of DeepPoint blocks and skip connections to achieve performance
improvement over the original 3DRIMR design. Our experiments have demonstrated
that this model significantly outperforms the original 3DRIMR and other
standard techniques in reconstructing 3D objects.
- Abstract(参考訳): 近年の研究では、低視界環境下でのオブジェクト検出にmmWaveレーダセンシングが有効であることが示されており、自動運転車のような自律ナビゲーションシステムにおいて理想的な技術となっている。
しかし,sparsity,low resolution,specularity,high noiseなどのレーダー信号の特性から,mmwaveレーダセンシングによる3次元物体形状の再構成は依然として困難である。
近年提案した3DRIMR (3D Restruction and Imaging via mmWave Radar)に基づいて構築されたDeepPointは,従来の3DRIMR設計を大幅に上回るポイントクラウド形式で3Dオブジェクトを生成するディープラーニングモデルである。
このモデルは、条件付き生成適応ネットワーク(GAN)ベースのディープニューラルネットワークアーキテクチャを採用する。
3DRIMRのStage 1で生成されたオブジェクトの2D深度画像を入力として、オブジェクトの滑らかで密度の高い3D点雲を出力する。
このモデルは、3drimrのステージ1の不完全な生成プロセスのために、これらの入力ポイント雲が多くの不正確な点を含む可能性があることを考慮し、様々な視点から観察すると、オブジェクトの複数の粗さとスパースな入力ポイント雲の結合の本質的な特徴を抽出するために、ディープポイントブロックまたはレイヤのシーケンスを利用する新しいジェネレータネットワークからなる。
DeepPointの設計は、入力ポイントクラウドのグローバルな特徴を捉えるために深い構造を採用しており、最適化された多数のDeepPointブロックと接続をスキップして、元の3DRIMR設計よりもパフォーマンスの向上を実現している。
実験により,本モデルが元の3DRIMRや他の標準技術よりも優れていることが示された。
関連論文リスト
- StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - R2P: A Deep Learning Model from mmWave Radar to Point Cloud [14.803119281557995]
Radar to Point Cloud (R2P)は3Dオブジェクトの滑らかで密度が高く、高精度なポイントクラウド表現を生成するディープラーニングモデルである。
R2Pは、最近提案した3DRIMR(3D Restruction and Imaging via mmWave Radar)システムのステージ2を置き換える。
論文 参考訳(メタデータ) (2022-07-21T18:01:05Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - CG-SSD: Corner Guided Single Stage 3D Object Detection from LiDAR Point
Cloud [4.110053032708927]
現実世界では、LiDARは限られた物体の表面点の雲しか取得できないが、物体の中心点は存在しない。
コーナー誘導型アンカーフリー単段3次元物体検出モデル(CG-SSD)を提案する。
CG-SSDは、単一フレームポイントクラウドデータを用いた教師付き3Dオブジェクト検出のためのONCEベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-02-24T02:30:15Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - 3DRIMR: 3D Reconstruction and Imaging via mmWave Radar based on Deep
Learning [9.26903816093995]
mmWaveレーダーは、低視認性、煙、ほこり、密集した霧環境において効果的なセンシング技術として示されている。
3DRIMR(3DRIMR)は,物体の3次元形状を高密度の細かなクラウド形式で再構成する深層学習型アーキテクチャである。
実験により,3DRIMRの3Dオブジェクト再構成の有効性が実証され,標準技術よりも性能が向上した。
論文 参考訳(メタデータ) (2021-08-05T21:24:57Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。