論文の概要: Sparse Depth Completion with Semantic Mesh Deformation Optimization
- arxiv url: http://arxiv.org/abs/2112.05498v1
- Date: Fri, 10 Dec 2021 13:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 19:27:43.532722
- Title: Sparse Depth Completion with Semantic Mesh Deformation Optimization
- Title(参考訳): セマンティクスメッシュ変形最適化によるスパース深さ補完
- Authors: Bing Zhou, Matias Aiskovich, Sinem Guven
- Abstract要約: 本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
- 参考スコア(独自算出の注目度): 4.03103540543081
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse depth measurements are widely available in many applications such as
augmented reality, visual inertial odometry and robots equipped with low cost
depth sensors. Although such sparse depth samples work well for certain
applications like motion tracking, a complete depth map is usually preferred
for broader applications, such as 3D object recognition, 3D reconstruction and
autonomous driving. Despite the recent advancements in depth prediction from
single RGB images with deeper neural networks, the existing approaches do not
yield reliable results for practical use. In this work, we propose a neural
network with post-optimization, which takes an RGB image and sparse depth
samples as input and predicts the complete depth map. We make three major
contributions to advance the state-of-the-art: an improved backbone network
architecture named EDNet, a semantic edge-weighted loss function and a semantic
mesh deformation optimization method. Our evaluation results outperform the
existing work consistently on both indoor and outdoor datasets, and it
significantly reduces the mean average error by up to 19.5% under the same
settings of 200 sparse samples on NYU-Depth-V2 dataset.
- Abstract(参考訳): スパース深度測定は、拡張現実、視覚慣性計測、低コストの深度センサーを備えたロボットなど、多くのアプリケーションで広く利用することができる。
このようなスパース深度サンプルは、モーショントラッキングのような特定の用途でうまく機能するが、完全な深度マップは3Dオブジェクト認識、3D再構成、自律運転など、より広い用途に好まれる。
より深いニューラルネットワークを持つ単一RGB画像からの深度予測の最近の進歩にもかかわらず、既存のアプローチでは実用上信頼性の高い結果が得られていない。
本研究では,RGB画像とスパース深度サンプルを入力とし,完全な深度マップを推定する,最適化後ニューラルネットワークを提案する。
EDNetと呼ばれる改良されたバックボーンネットワークアーキテクチャ、セマンティックエッジ重み付き損失関数、セマンティックメッシュ変形最適化手法の3つの主要な貢献をしている。
我々の評価結果は、屋内および屋外両方のデータセットにおいて、既存の作業を一貫して上回り、NYU-Depth-V2データセット上の200個のスパースサンプルと同じ設定で平均誤差を最大19.5%削減する。
関連論文リスト
- Depth Estimation From Monocular Images With Enhanced Encoder-Decoder Architecture [0.0]
本稿では,エンコーダデコーダアーキテクチャを用いた新しい深層学習手法を提案する。
Inception-ResNet-v2モデルはエンコーダとして利用される。
NYU Depth V2データセットの実験結果は、我々のモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-15T13:46:19Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - DenseLiDAR: A Real-Time Pseudo Dense Depth Guided Depth Completion
Network [3.1447111126464997]
本稿では,DenseLiDARを提案する。
単純な形態的操作から得られた高密度な擬似深度マップを利用してネットワークを誘導する。
我々のモデルは50Hzのフレームレートで最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-08-28T14:18:29Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - S3CNet: A Sparse Semantic Scene Completion Network for LiDAR Point
Clouds [0.16799377888527683]
S3CNetはスパース畳み込みに基づくニューラルネットワークで、単一で統一されたLiDARポイントクラウドからセマンティックに完了したシーンを予測する。
提案手法は,Semantic KITTI ベンチマークを用いて,3次元課題における全ての課題に対して優れることを示す。
論文 参考訳(メタデータ) (2020-12-16T20:14:41Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。