論文の概要: Least Square Estimation Network for Depth Completion
- arxiv url: http://arxiv.org/abs/2203.03317v1
- Date: Mon, 7 Mar 2022 11:52:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:41:30.831784
- Title: Least Square Estimation Network for Depth Completion
- Title(参考訳): 奥行き完了のための最小二乗推定ネットワーク
- Authors: Xianze Fang, Zexi Chen, Yunkai Wang, Yue Wang, Rong Xiong
- Abstract要約: 本稿では,深度完了タスクのための効率的な画像表現法を提案する。
システムの入力は単眼カメラフレームと同期スパース深度マップである。
実験の結果は、NYU-Depth-V2データセットの精度と実行時間の両方で、最先端のデータセットを上回ったことを示している。
- 参考スコア(独自算出の注目度): 11.840223815711004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth completion is a fundamental task in computer vision and robotics
research. Many previous works complete the dense depth map with neural networks
directly but most of them are non-interpretable and can not generalize to
different situations well. In this paper, we propose an effective image
representation method for depth completion tasks. The input of our system is a
monocular camera frame and the synchronous sparse depth map. The output of our
system is a dense per-pixel depth map of the frame. First we use a neural
network to transform each pixel into a feature vector, which we call base
functions. Then we pick out the known pixels' base functions and their depth
values. We use a linear least square algorithm to fit the base functions and
the depth values. Then we get the weights estimated from the least square
algorithm. Finally, we apply the weights to the whole image and predict the
final depth map. Our method is interpretable so it can generalize well.
Experiments show that our results beat the state-of-the-art on NYU-Depth-V2
dataset both in accuracy and runtime. Moreover, experiments show that our
method can generalize well on different numbers of sparse points and different
datasets.
- Abstract(参考訳): 深度完了はコンピュータビジョンとロボティクス研究の基本的な課題である。
従来の多くの研究はニューラルネットワークで直接深度マップを完成させたが、その多くは解釈不能であり、異なる状況にうまく一般化できない。
本稿では,深度完了タスクのための効率的な画像表現法を提案する。
システムの入力は単眼カメラフレームと同期スパース深度マップである。
私たちのシステムの出力は、フレームのピクセル当たりの深さマップです。
まず、ニューラルネットワークを使って各ピクセルを特徴ベクトルに変換し、基本関数と呼ぶ。
次に、既知のピクセルの基底関数とその深さ値を選択する。
基本関数と深さ値に合わせるために線形最小二乗アルゴリズムを用いる。
そして、最小二乗アルゴリズムから推定される重みを得る。
最後に、重みを画像全体に適用し、最終深度マップを予測します。
我々の方法は解釈可能であるので、うまく一般化できる。
実験の結果,nyu-depth-v2データセットの精度と実行時間の両方において,最先端の値を打ち負かした。
さらに,本手法は,異なる数のスパース点と異なるデータセットをうまく一般化できることを示す実験を行った。
関連論文リスト
- Temporal Lidar Depth Completion [0.08192907805418582]
PENetは, 再発の恩恵を受けるために, 最新の手法であるPENetをどう修正するかを示す。
提案アルゴリズムは,KITTI深度補完データセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-17T08:25:31Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - P3Depth: Monocular Depth Estimation with a Piecewise Planarity Prior [133.76192155312182]
本研究では,コプラナー画素からの情報を選択的に活用して予測深度を改善する手法を提案する。
本手法の広範な評価により, 教師付き単分子深度推定法において, 新たな手法の確立が期待できる。
論文 参考訳(メタデータ) (2022-04-05T10:03:52Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Towards Dense People Detection with Deep Learning and Depth images [9.376814409561726]
本稿では,1つの深度画像から複数の人物を検出するDNNシステムを提案する。
我々のニューラルネットワークは深度画像を処理し、画像座標の確率マップを出力する。
我々は、この戦略が効果的であることを示し、トレーニング中に使用するものと異なるシーンで動作するように一般化したネットワークを創出する。
論文 参考訳(メタデータ) (2020-07-14T16:43:02Z) - DPDnet: A Robust People Detector using Deep Learning with an Overhead
Depth Camera [9.376814409561726]
本研究では,高信頼度で1つの頭上深度画像から複数の人物を検出する手法を提案する。
DPDnetと呼ばれるニューラルネットワークは、残層に基づく2つの完全畳み込みエンコーダデコーダニューラルブロックに基づいている。
実験の結果、PDNetは最先端の手法よりも優れており、3つの異なる公開データセットで99%以上のアキュラシーを達成している。
論文 参考訳(メタデータ) (2020-06-01T16:28:25Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。