論文の概要: 3dDepthNet: Point Cloud Guided Depth Completion Network for Sparse Depth
and Single Color Image
- arxiv url: http://arxiv.org/abs/2003.09175v1
- Date: Fri, 20 Mar 2020 10:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:43:49.946999
- Title: 3dDepthNet: Point Cloud Guided Depth Completion Network for Sparse Depth
and Single Color Image
- Title(参考訳): 3dDepthNet:Sparse DepthとSingle Color ImageのためのPoint Cloud Guided Depth Completion Network
- Authors: Rui Xiang, Feng Zheng, Huapeng Su, Zhe Zhang
- Abstract要約: 我々のネットワークは、正確かつ軽量な3次元から2次元の粗大な二重密度化設計を提供する。
KITTIデータセットの実験は、我々のネットワークがより効率的でありながら最先端の精度を実現していることを示している。
- 参考スコア(独自算出の注目度): 42.13930269841654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an end-to-end deep learning network named
3dDepthNet, which produces an accurate dense depth image from a single pair of
sparse LiDAR depth and color image for robotics and autonomous driving tasks.
Based on the dimensional nature of depth images, our network offers a novel
3D-to-2D coarse-to-fine dual densification design that is both accurate and
lightweight. Depth densification is first performed in 3D space via point cloud
completion, followed by a specially designed encoder-decoder structure that
utilizes the projected dense depth from 3D completion and the original RGB-D
images to perform 2D image completion. Experiments on the KITTI dataset show
our network achieves state-of-art accuracy while being more efficient. Ablation
and generalization tests prove that each module in our network has positive
influences on the final results, and furthermore, our network is resilient to
even sparser depth.
- Abstract(参考訳): 本稿では3dDepthNetというエンド・ツー・エンドのディープラーニングネットワークを提案する。ロボットと自律走行タスクのための1対のスパースLiDAR深度とカラー画像から正確な深度画像を生成する。
奥行き画像の次元的性質に基づいて,ネットワークは高精度かつ軽量な,新しい3次元から2次元の粗い2次元密度設計を提供する。
深度密度化は3次元空間において点雲完備化により行われ、続いて投影された3次元完了からの深度と元のRGB-D画像を用いて2次元画像完備化を行うエンコーダ・デコーダ構造が特別に設計された。
KITTIデータセットの実験は、我々のネットワークがより効率的でありながら最先端の精度を達成することを示している。
アブレーションと一般化テストにより,ネットワーク内の各モジュールが最終結果に正の影響を示し,さらにネットワークはスパルサー深さにまで弾力性があることが証明された。
関連論文リスト
- A Two-Stage Masked Autoencoder Based Network for Indoor Depth Completion [10.519644854849098]
室内深度補完のための2段階トランスフォーマーネットワークを提案する。
提案するネットワークは,Matterport3Dデータセット上での最先端性能を実現する。
また, 深度完了作業の重要性を検証するため, 室内3次元再構成に本手法を適用した。
論文 参考訳(メタデータ) (2024-06-14T07:42:27Z) - Pyramid Deep Fusion Network for Two-Hand Reconstruction from RGB-D Images [11.100398985633754]
両手で高密度メッシュを復元するためのエンドツーエンドフレームワークを提案する。
我々のフレームワークはResNet50とPointNet++を使って、RGBとpoint cloudから機能を派生しています。
また,異なるスケールで特徴を集約する新しいピラミッド深層核融合ネットワーク (PDFNet) も導入した。
論文 参考訳(メタデータ) (2023-07-12T09:33:21Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。