論文の概要: SGTBN: Generating Dense Depth Maps from Single-Line LiDAR
- arxiv url: http://arxiv.org/abs/2106.12994v1
- Date: Thu, 24 Jun 2021 13:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 15:07:09.674212
- Title: SGTBN: Generating Dense Depth Maps from Single-Line LiDAR
- Title(参考訳): SGTBN:シングルラインLiDARから高密度深度マップを生成する
- Authors: Hengjie Lu, Shugong Xu, Shan Cao
- Abstract要約: 現在の深度補完法は、非常に高価な64ラインのLiDARを用いてスパース深度マップを得る。
64ラインのLiDARと比較すると、シングルラインのLiDARはずっと安く、より堅牢である。
既存の64行の深度補完データセットに基づいて, 単行深度補完データセットを提案する。
- 参考スコア(独自算出の注目度): 13.58227120045849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth completion aims to generate a dense depth map from the sparse depth map
and aligned RGB image. However, current depth completion methods use extremely
expensive 64-line LiDAR(about $100,000) to obtain sparse depth maps, which will
limit their application scenarios. Compared with the 64-line LiDAR, the
single-line LiDAR is much less expensive and much more robust. Therefore, we
propose a method to tackle the problem of single-line depth completion, in
which we aim to generate a dense depth map from the single-line LiDAR info and
the aligned RGB image. A single-line depth completion dataset is proposed based
on the existing 64-line depth completion dataset(KITTI). A network called
Semantic Guided Two-Branch Network(SGTBN) which contains global and local
branches to extract and fuse global and local info is proposed for this task. A
Semantic guided depth upsampling module is used in our network to make full use
of the semantic info in RGB images. Except for the usual MSE loss, we add the
virtual normal loss to increase the constraint of high-order 3D geometry in our
network. Our network outperforms the state-of-the-art in the single-line depth
completion task. Besides, compared with the monocular depth estimation, our
method also has significant advantages in precision and model size.
- Abstract(参考訳): 深度補完はスパース深度マップとアライメントされたRGB画像から深度マップを生成することを目的としている。
しかし、現在の深度補完法は、非常に高価な64行のLiDAR(約10万ドル)を使用してスパース深度マップを取得し、アプリケーションシナリオを制限する。
64ラインのLiDARと比較すると、シングルラインのLiDARはずっと安く、より堅牢である。
そこで本研究では, 単線LiDAR情報と整列RGB画像から深度マップを生成することを目的とした, 単線深度完備化の問題に対処する手法を提案する。
既存の64線深度補完データセット(KITTI)に基づいて,一直線深度補完データセットを提案する。
グローバル情報とローカル情報を抽出・融合するグローバル分枝とローカル分枝を含むsemantic guided two-branch network(sgtbn)と呼ばれるネットワークが提案されている。
我々のネットワークではセマンティック誘導深度サンプリングモジュールを用いてRGB画像のセマンティック情報を完全に活用している。
通常のMSE損失を除いて、ネットワーク内の高次3次元幾何学の制約を増やすために、仮想正規損失を追加する。
我々のネットワークは, 単線深度完了タスクにおいて最先端の処理性能を上回る。
さらに, 単分子深度推定と比較して, 精度とモデルサイズに有意な利点がある。
関連論文リスト
- SteeredMarigold: Steering Diffusion Towards Depth Completion of Largely Incomplete Depth Maps [3.399289369740637]
SteeredMarigold は訓練なし、ゼロショット深度補完法である。
これは、大半不完全深度写像であっても、メートル法的な密度深度を生成する。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2024-09-16T11:52:13Z) - RDFC-GAN: RGB-Depth Fusion CycleGAN for Indoor Depth Completion [28.634851863097953]
本稿では,RDFC-GANという2分岐のエンドツーエンド核融合ネットワークを提案する。
RGBと不完全な深度画像のペアを入力として、密集した深度マップを予測する。
第1分枝は、マンハッタン世界の仮定に固執することにより、エンコーダ・デコーダ構造を用いる。
もう一方のブランチでは、RGBイメージを詳細なテクスチャ化された深度マップに変換するのに適したRGB深度融合CycleGANが適用されている。
論文 参考訳(メタデータ) (2023-06-06T11:03:05Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - BridgeNet: A Joint Learning Network of Depth Map Super-Resolution and
Monocular Depth Estimation [60.34562823470874]
本稿では,DSR(Deep Map Super- resolution)とMDE(Monocular depth Estimation)の併用学習ネットワークを提案する。
1つは特徴符号化プロセスのために設計された高周波アテンションブリッジ(HABdg)で、これはDSRタスクを誘導するMDEタスクの高周波情報を学ぶ。
もう一つは、深度マップ再構築プロセス用に設計されたコンテンツガイダンスブリッジ(CGBdg)であり、MDEタスクのためにDSRタスクから学んだコンテンツガイダンスを提供する。
論文 参考訳(メタデータ) (2021-07-27T01:28:23Z) - DVMN: Dense Validity Mask Network for Depth Completion [0.0]
スパース深度マップから高密度かつ有効な情報を集めることに焦点を当てたガイド付き畳み込みニューラルネットワークを開発した。
我々は,KITTI深度補完ベンチマークを用いてDense Validity Mask Network (DVMN) を評価し,その結果を報告する。
論文 参考訳(メタデータ) (2021-07-14T13:57:44Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。