論文の概要: CU-Net: LiDAR Depth-Only Completion With Coupled U-Net
- arxiv url: http://arxiv.org/abs/2210.14898v1
- Date: Wed, 26 Oct 2022 17:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 15:18:24.775366
- Title: CU-Net: LiDAR Depth-Only Completion With Coupled U-Net
- Title(参考訳): CU-Net:LiDARの深さのみのコンプリート
- Authors: Yufei Wang, Yuchao Dai, Qi Liu, Peng Yang, Jiadai Sun, Bo Li
- Abstract要約: 本稿では,深度のみを補完する効果的な結合型U-Netアーキテクチャを提案する。
我々は、局所的なU-Netを用いて、通常の領域における正確な値を推定し、重複領域と空白領域における信頼性の高い初期値をグローバルなU-Netに提供する。
提案手法は,パラメータを少なくして最終結果を向上し,KITTIベンチマークの最先端結果を得る。
- 参考スコア(独自算出の注目度): 42.35466006061206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR depth-only completion is a challenging task to estimate dense depth
maps only from sparse measurement points obtained by LiDAR. Even though the
depth-only methods have been widely developed, there is still a significant
performance gap with the RGB-guided methods that utilize extra color images. We
find that existing depth-only methods can obtain satisfactory results in the
areas where the measurement points are almost accurate and evenly distributed
(denoted as normal areas), while the performance is limited in the areas where
the foreground and background points are overlapped due to occlusion (denoted
as overlap areas) and the areas where there are no measurement points around
(denoted as blank areas) since the methods have no reliable input information
in these areas. Building upon these observations, we propose an effective
Coupled U-Net (CU-Net) architecture for depth-only completion. Instead of
directly using a large network for regression, we employ the local U-Net to
estimate accurate values in the normal areas and provide the global U-Net with
reliable initial values in the overlap and blank areas. The depth maps
predicted by the two coupled U-Nets are fused by learned confidence maps to
obtain final results. In addition, we propose a confidence-based outlier
removal module, which removes outliers using simple judgment conditions. Our
proposed method boosts the final results with fewer parameters and achieves
state-of-the-art results on the KITTI benchmark. Moreover, it owns a powerful
generalization ability under various depth densities, varying lighting, and
weather conditions.
- Abstract(参考訳): LiDAR深度のみの完成は、LiDARが取得した疎度測定点のみから深度マップを推定する難しい課題である。
奥行きのみの手法は広く開発されているが、余分なカラー画像を利用するRGB誘導法には大きな性能差がある。
既存の深度のみの手法は,測定点がほぼ正確で均等に分布する領域(通常領域と表記される)において良好な結果が得られるが,その一方で,前景と背景の点が重なり合う領域(重複領域と表記される)や計測点が存在しない領域(空白領域と表記される)では,これらの領域に信頼性のある入力情報がないため,性能が制限されている。
これらの観測結果に基づいて,深度のみを補完する効果的な結合型U-Netアーキテクチャを提案する。
回帰のために大きなネットワークを直接使用する代わりに、ローカルのu-netを使って正常な領域の正確な値を推定し、オーバーラップ領域と空白領域で信頼できる初期値を提供する。
2つの結合u-netによって予測される深度マップは、最終的な結果を得るために学習された信頼度マップによって融合される。
さらに, 簡易判定条件を用いて外乱除去を行う信頼度に基づく外乱除去モジュールを提案する。
提案手法は,パラメータを少なくして最終結果を向上し,KITTIベンチマークの最先端結果を得る。
さらに、様々な深度密度、様々な照明、気象条件の下で強力な一般化能力を持っている。
関連論文リスト
- SteeredMarigold: Steering Diffusion Towards Depth Completion of Largely Incomplete Depth Maps [3.399289369740637]
SteeredMarigold は訓練なし、ゼロショット深度補完法である。
これは、大半不完全深度写像であっても、メートル法的な密度深度を生成する。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2024-09-16T11:52:13Z) - Temporal Lidar Depth Completion [0.08192907805418582]
PENetは, 再発の恩恵を受けるために, 最新の手法であるPENetをどう修正するかを示す。
提案アルゴリズムは,KITTI深度補完データセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-17T08:25:31Z) - DesNet: Decomposed Scale-Consistent Network for Unsupervised Depth
Completion [28.91716162403531]
教師なし深度補完は、接地トラスアノテーションを使わずにスパースから密集した深度を回復することを目的としている。
本研究では,絶対深度を相対深度予測とグローバルスケール推定に分解するDSCL戦略を提案する。
提案手法は,室内のNYUv2データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T14:56:18Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Balanced Depth Completion between Dense Depth Inference and Sparse Range
Measurements via KISS-GP [14.158132769768578]
密集した正確な深度マップを推定することは、自動運転とロボット工学にとって重要な要件である。
近年のディープラーニングの進歩により、単一の画像から全解像度での深度推定が可能になった。
この驚くべき結果にもかかわらず、多くのディープラーニングベースの単眼深度推定アルゴリズムは、その精度をメーターレベルの推定誤差に保たない。
論文 参考訳(メタデータ) (2020-08-12T08:07:55Z) - Non-Local Spatial Propagation Network for Depth Completion [82.60915972250706]
本研究では,深度完了のための堅牢で効率的な非局所的空間伝搬ネットワークを提案する。
提案するネットワークは,RGBとスパース深度画像を入力とし,各画素の非局所的近傍とその親和性を推定する。
提案アルゴリズムは,混合深度問題に対する深度補完精度とロバスト性の観点から,従来のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:26:51Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。