論文の概要: A Concise but Effective Network for Image Guided Depth Completion in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2401.15902v1
- Date: Mon, 29 Jan 2024 06:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:51:28.716262
- Title: A Concise but Effective Network for Image Guided Depth Completion in
Autonomous Driving
- Title(参考訳): 自律運転における画像案内深度補完のための簡潔かつ効果的なネットワーク
- Authors: Moyun Liu, Youping Chen, Jingming Xie, Lei Yao, Yang Zhang, Joey
Tianyi Zhou
- Abstract要約: 本稿では,高速深度補完を実現するため,CENetという高精度で効率的なネットワークを提案する。
他の一般的な複雑なガイダンスモジュールとは異なり、我々のアプローチは直感的で低コストです。
デュアルエンコーダとシングルデコーダの単純な構造に基づいて、CENetは精度と効率のバランスが良くなる。
- 参考スコア(独自算出の注目度): 33.459973952292614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth completion is a crucial task in autonomous driving, aiming to convert a
sparse depth map into a dense depth prediction. Due to its potentially rich
semantic information, RGB image is commonly fused to enhance the completion
effect. Image-guided depth completion involves three key challenges: 1) how to
effectively fuse the two modalities; 2) how to better recover depth
information; and 3) how to achieve real-time prediction for practical
autonomous driving. To solve the above problems, we propose a concise but
effective network, named CENet, to achieve high-performance depth completion
with a simple and elegant structure. Firstly, we use a fast guidance module to
fuse the two sensor features, utilizing abundant auxiliary features extracted
from the color space. Unlike other commonly used complicated guidance modules,
our approach is intuitive and low-cost. In addition, we find and analyze the
optimization inconsistency problem for observed and unobserved positions, and a
decoupled depth prediction head is proposed to alleviate the issue. The
proposed decoupled head can better output the depth of valid and invalid
positions with very few extra inference time. Based on the simple structure of
dual-encoder and single-decoder, our CENet can achieve superior balance between
accuracy and efficiency. In the KITTI depth completion benchmark, our CENet
attains competitive performance and inference speed compared with the
state-of-the-art methods. To validate the generalization of our method, we also
evaluate on indoor NYUv2 dataset, and our CENet still achieve impressive
results. The code of this work will be available at
https://github.com/lmomoy/CENet.
- Abstract(参考訳): 深度完了は、スパース深度マップを深度予測に変換することを目的として、自律運転において重要な課題である。
潜在的にリッチなセマンティック情報のため、RGBイメージは、完了効果を高めるために一般的に融合される。
画像誘導深度補完には3つの課題がある。
1) 2つのモダリティを効果的に融合する方法
2) 深度情報の回復方法,及び
3)実用的な自動運転のリアルタイム予測を実現する方法。
上記の問題を解決するため,簡易でエレガントな構造で高速な深度補完を実現するため,CENetという簡潔で効率的なネットワークを提案する。
まず、カラー空間から抽出した豊富な補助的特徴を利用して、2つのセンサ特徴を融合させる高速誘導モジュールを用いる。
他の一般的な複雑なガイダンスモジュールとは異なり、我々のアプローチは直感的で低コストです。
さらに,観測された位置と観測されていない位置に対する最適化の不整合性問題を発見し解析し,問題を緩和するために疎結合深度予測ヘッドを提案する。
提案する分離ヘッドは, 有効位置と無効位置の深さを, ごくわずかな余分な推論時間で出力できる。
デュアルエンコーダとシングルデコーダの単純な構造に基づき,cenetは精度と効率のバランスが良好である。
kitti depth completionベンチマークでは,最先端手法と比較して,cenetの性能と推論速度が向上した。
また,本手法の一般化を検証するため,室内のNYUv2データセットを用いて評価を行った。
この作業のコードはhttps://github.com/lmomoy/CENet.comで公開される。
関連論文リスト
- Depth Estimation From Monocular Images With Enhanced Encoder-Decoder Architecture [0.0]
本稿では,エンコーダデコーダアーキテクチャを用いた新しい深層学習手法を提案する。
Inception-ResNet-v2モデルはエンコーダとして利用される。
NYU Depth V2データセットの実験結果は、我々のモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-15T13:46:19Z) - Gated Cross-Attention Network for Depth Completion [11.154059839763738]
色と深度の特徴の融合は、現在、深度推定の分野における重要な課題である。
我々は、ゲーティング機構を介して信頼性を伝播する効率的なGated Cross-Attention Networkを設計する。
我々は、AsyncHyperBandSchedulerスケジューラとHyperOptSearchアルゴリズムでRay Tuneメカニズムを使用して、モジュールイテレーションの最適な回数を自動的に検索する。
論文 参考訳(メタデータ) (2023-09-28T09:54:10Z) - Deep Neighbor Layer Aggregation for Lightweight Self-Supervised
Monocular Depth Estimation [1.6775954077761863]
文脈的特徴融合を用いた完全畳み込み深度推定ネットワークを提案する。
UNet++やHRNetと比較して、我々は、小さなターゲットや高速移動オブジェクトに関する情報を予約するために、高解像度で低解像度の機能を使用します。
本手法は精度を犠牲にすることなくパラメータを削減する。
論文 参考訳(メタデータ) (2023-09-17T13:40:15Z) - VA-DepthNet: A Variational Approach to Single Image Depth Prediction [163.14849753700682]
VA-DepthNetは、単一画像深度予測問題に対する単純で効果的で正確なディープニューラルネットワークアプローチである。
本論文は,複数のベンチマークデータセットに対する広範囲な評価とアブレーション解析により提案手法の有用性を実証する。
論文 参考訳(メタデータ) (2023-02-13T17:55:58Z) - BridgeNet: A Joint Learning Network of Depth Map Super-Resolution and
Monocular Depth Estimation [60.34562823470874]
本稿では,DSR(Deep Map Super- resolution)とMDE(Monocular depth Estimation)の併用学習ネットワークを提案する。
1つは特徴符号化プロセスのために設計された高周波アテンションブリッジ(HABdg)で、これはDSRタスクを誘導するMDEタスクの高周波情報を学ぶ。
もう一つは、深度マップ再構築プロセス用に設計されたコンテンツガイダンスブリッジ(CGBdg)であり、MDEタスクのためにDSRタスクから学んだコンテンツガイダンスを提供する。
論文 参考訳(メタデータ) (2021-07-27T01:28:23Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation [14.81943833870932]
本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
論文 参考訳(メタデータ) (2020-12-14T09:15:15Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。