論文の概要: Confidence Guided Depth Completion Network
- arxiv url: http://arxiv.org/abs/2202.03257v1
- Date: Mon, 7 Feb 2022 14:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 17:06:12.441805
- Title: Confidence Guided Depth Completion Network
- Title(参考訳): 信頼度誘導奥行き完了ネットワーク
- Authors: Yongjin Lee, Seokjun Park, Beomgu Kang, Hyunwook Park
- Abstract要約: 本稿では,高速な計算時間で高精度な深度マップを推定する画像誘導深度補完法を提案する。
KITTIディープ・コンプリート・オンライン・リーダーボードの上位モデルと比較すると、提案モデルは計算時間と競合性能がはるかに高速である。
- 参考スコア(独自算出の注目度): 3.8998241153792454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper proposes an image-guided depth completion method to estimate
accurate dense depth maps with fast computation time. The proposed network has
two-stage structure. The first stage predicts a first depth map. Then, the
second stage further refines the first depth map using the confidence maps. The
second stage consists of two layers, each of which focuses on different regions
and generates a refined depth map and a confidence map. The final depth map is
obtained by combining two depth maps from the second stage using the
corresponding confidence maps. Compared with the top-ranked models on the KITTI
depth completion online leaderboard, the proposed model shows much faster
computation time and competitive performance.
- Abstract(参考訳): 高速な計算時間で高精度な深度マップを推定する画像誘導深度補完法を提案する。
提案するネットワークは2段階構造である。
第1段は第1深度マップを予測する。
そして、第2段はさらに信頼マップを用いて第1深度マップを洗練する。
第2段階は2つの層で構成され、それぞれ異なる領域に焦点を当て、洗練された深度マップと信頼マップを生成する。
最終深度マップは、対応する信頼度マップを用いて、2段目から2つの深度マップを組み合わせることで得られる。
kitti depth completion online leaderboardの上位モデルと比較すると、提案モデルの方が計算時間と競合性能がはるかに速い。
関連論文リスト
- Bilateral Propagation Network for Depth Completion [41.163328523175466]
深度補正は,色画像の同期による疎深度測定から高密度深度マップを導出することを目的としている。
現在の最先端技術(SOTA)法は主に伝播に基づく手法であり、初期推定密度深さの反復精製として機能する。
本稿では, スパースデータの直接結合を避けるために, 早期に深度を伝播するバイラテラル伝搬ネットワーク(BP-Net)を提案する。
論文 参考訳(メタデータ) (2024-03-17T16:48:46Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - PENet: Towards Precise and Efficient Image Guided Depth Completion [11.162415111320625]
色と深さのモダリティを融合させる方法は、優れたパフォーマンスを達成する上で重要な役割を果たす。
本稿では,色優性枝と深度優性枝からなる2枝のバックボーンを提案する。
提案する完全モデルは、提出時点でkitti depth completion online leaderboardで1位にランクインしている。
論文 参考訳(メタデータ) (2021-03-01T06:09:23Z) - FCFR-Net: Feature Fusion based Coarse-to-Fine Residual Learning for
Monocular Depth Completion [15.01291779855834]
最近のアプローチは、主に1段階のエンドツーエンドの学習タスクとして深さの完成を定式化します。
深度完了を2段階学習タスクとして定式化する,新しいエンドツーエンドの残留学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T13:09:56Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Attention Aware Cost Volume Pyramid Based Multi-view Stereo Network for
3D Reconstruction [12.728154351588053]
マルチビュー画像から3次元再構成を行うための効率的なマルチビューステレオ(MVS)ネットワークを提案する。
高分解能深度を実現するために粗粒度深度推論戦略を導入する。
論文 参考訳(メタデータ) (2020-11-25T13:34:11Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。