論文の概要: PENet: Towards Precise and Efficient Image Guided Depth Completion
- arxiv url: http://arxiv.org/abs/2103.00783v2
- Date: Thu, 4 Mar 2021 02:27:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 13:03:01.834434
- Title: PENet: Towards Precise and Efficient Image Guided Depth Completion
- Title(参考訳): PENet: 精密かつ効率的な画像ガイド深度補完を目指して
- Authors: Mu Hu, Shuling Wang, Bin Li, Shiyu Ning, Li Fan, and Xiaojin Gong
- Abstract要約: 色と深さのモダリティを融合させる方法は、優れたパフォーマンスを達成する上で重要な役割を果たす。
本稿では,色優性枝と深度優性枝からなる2枝のバックボーンを提案する。
提案する完全モデルは、提出時点でkitti depth completion online leaderboardで1位にランクインしている。
- 参考スコア(独自算出の注目度): 11.162415111320625
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image guided depth completion is the task of generating a dense depth map
from a sparse depth map and a high quality image. In this task, how to fuse the
color and depth modalities plays an important role in achieving good
performance. This paper proposes a two-branch backbone that consists of a
color-dominant branch and a depth-dominant branch to exploit and fuse two
modalities thoroughly. More specifically, one branch inputs a color image and a
sparse depth map to predict a dense depth map. The other branch takes as inputs
the sparse depth map and the previously predicted depth map, and outputs a
dense depth map as well. The depth maps predicted from two branches are
complimentary to each other and therefore they are adaptively fused. In
addition, we also propose a simple geometric convolutional layer to encode 3D
geometric cues. The geometric encoded backbone conducts the fusion of different
modalities at multiple stages, leading to good depth completion results. We
further implement a dilated and accelerated CSPN++ to refine the fused depth
map efficiently. The proposed full model ranks 1st in the KITTI depth
completion online leaderboard at the time of submission. It also infers much
faster than most of the top ranked methods. The code of this work will be
available at https://github.com/JUGGHM/PENet_ICRA2021.
- Abstract(参考訳): 画像案内深度完成は、スパース深度マップと高品質な画像から濃密深度マップを生成するタスクである。
このタスクでは、色と深さのモダリティを融合する方法が、優れたパフォーマンスを達成する上で重要な役割を果たす。
本論文では, 色優性分枝と深度優性分枝からなる2枝バックボーンを提案し, 2つのモダリティを徹底的に活用・融合する。
具体的には、色画像とスパース深度マップを入力し、密度の深い深度マップを予測する。
他方の分岐は、スパース深度マップと予め予測された深さマップを入力とし、高密度深さマップも出力する。
2つの枝から予測される深度マップは互いに補完的であり、適応的に融合する。
さらに,3次元幾何学的手がかりを符号化する簡単な幾何学的畳み込み層も提案する。
幾何エンコードされたバックボーンは、複数の段階で異なるモダリティの融合を行い、良好な深さ完成結果をもたらします。
さらに、融解深度マップを効率的に洗練するために、拡張および加速CSPN++を実装します。
提案する完全モデルは、提出時点でkitti depth completion online leaderboardで1位にランクインしている。
また、トップクラスのほとんどのメソッドよりもはるかに高速に推論する。
この作業のコードはhttps://github.com/JUGGHM/PENet_ICRA2021で入手できます。
関連論文リスト
- GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - SemAttNet: Towards Attention-based Semantic Aware Guided Depth
Completion [12.724769241831396]
そこで本研究では,色誘導,意味誘導,奥行き誘導からなる新しい3枝バックボーンを提案する。
カラー誘導枝の予測深度マップとセマンティックイメージとスパース深度マップをセマンティック誘導枝への入力として渡す。
深度誘導枝は疎度、色、意味的な深度を取り、深度マップを生成する。
論文 参考訳(メタデータ) (2022-04-28T16:53:25Z) - P3Depth: Monocular Depth Estimation with a Piecewise Planarity Prior [133.76192155312182]
本研究では,コプラナー画素からの情報を選択的に活用して予測深度を改善する手法を提案する。
本手法の広範な評価により, 教師付き単分子深度推定法において, 新たな手法の確立が期待できる。
論文 参考訳(メタデータ) (2022-04-05T10:03:52Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Confidence Guided Depth Completion Network [3.8998241153792454]
本稿では,高速な計算時間で高精度な深度マップを推定する画像誘導深度補完法を提案する。
KITTIディープ・コンプリート・オンライン・リーダーボードの上位モデルと比較すると、提案モデルは計算時間と競合性能がはるかに高速である。
論文 参考訳(メタデータ) (2022-02-07T14:57:28Z) - BridgeNet: A Joint Learning Network of Depth Map Super-Resolution and
Monocular Depth Estimation [60.34562823470874]
本稿では,DSR(Deep Map Super- resolution)とMDE(Monocular depth Estimation)の併用学習ネットワークを提案する。
1つは特徴符号化プロセスのために設計された高周波アテンションブリッジ(HABdg)で、これはDSRタスクを誘導するMDEタスクの高周波情報を学ぶ。
もう一つは、深度マップ再構築プロセス用に設計されたコンテンツガイダンスブリッジ(CGBdg)であり、MDEタスクのためにDSRタスクから学んだコンテンツガイダンスを提供する。
論文 参考訳(メタデータ) (2021-07-27T01:28:23Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - FCFR-Net: Feature Fusion based Coarse-to-Fine Residual Learning for
Monocular Depth Completion [15.01291779855834]
最近のアプローチは、主に1段階のエンドツーエンドの学習タスクとして深さの完成を定式化します。
深度完了を2段階学習タスクとして定式化する,新しいエンドツーエンドの残留学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T13:09:56Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。