論文の概要: Toward Hierarchical Self-Supervised Monocular Absolute Depth Estimation
for Autonomous Driving Applications
- arxiv url: http://arxiv.org/abs/2004.05560v2
- Date: Wed, 9 Sep 2020 10:48:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:30:46.721786
- Title: Toward Hierarchical Self-Supervised Monocular Absolute Depth Estimation
for Autonomous Driving Applications
- Title(参考訳): 自律運転のための階層的自己教師付き単眼絶対深度推定に向けて
- Authors: Feng Xue, Guirong Zhuo, Ziyuan Huang, Wufei Fu, Zhuoyue Wu, Marcelo H.
Ang Jr
- Abstract要約: 現在の手法はいまだに不正確な物体レベルの深さ推定と不確実なスケールファクターに悩まされている。
DNetを導入して,これら2つの問題を解決することを提案する。
筆者らの貢献は2つある:a) 自律走行シナリオに特化して、より優れたオブジェクトレベルの深度推定を提供するために、新しい密結合予測層を提案し、b) 自律走行に要する厳密な幾何的制約(DGC)を導入し、自動運転車に余分なコストをかけずに正確なスケール係数を復元できるようにした。
- 参考スコア(独自算出の注目度): 12.931635568843381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, self-supervised methods for monocular depth estimation has
rapidly become an significant branch of depth estimation task, especially for
autonomous driving applications. Despite the high overall precision achieved,
current methods still suffer from a) imprecise object-level depth inference and
b) uncertain scale factor. The former problem would cause texture copy or
provide inaccurate object boundary, and the latter would require current
methods to have an additional sensor like LiDAR to provide depth ground-truth
or stereo camera as additional training inputs, which makes them difficult to
implement. In this work, we propose to address these two problems together by
introducing DNet. Our contributions are twofold: a) a novel dense connected
prediction (DCP) layer is proposed to provide better object-level depth
estimation and b) specifically for autonomous driving scenarios, dense
geometrical constrains (DGC) is introduced so that precise scale factor can be
recovered without additional cost for autonomous vehicles. Extensive
experiments have been conducted and, both DCP layer and DGC module are proved
to be effectively solving the aforementioned problems respectively. Thanks to
DCP layer, object boundary can now be better distinguished in the depth map and
the depth is more continues on object level. It is also demonstrated that the
performance of using DGC to perform scale recovery is comparable to that using
ground-truth information, when the camera height is given and the ground point
takes up more than 1.03\% of the pixels. Code is available at
https://github.com/TJ-IPLab/DNet.
- Abstract(参考訳): 近年, 単眼深度推定の自己監督手法は, 特に自律運転への応用において, 急速に深度推定の重要分野となっている。
全体的な精度は高いものの、現在の手法はいまだに苦しむ
a)不正確な対象レベルの深度推定と
b) 不確実なスケールファクタ。
前者はテクスチャのコピーや不正確なオブジェクト境界を生じさせ、後者はLiDARのようなセンサーを付加して、追加のトレーニング入力として深度グラウンドトルースやステレオカメラを提供する必要があるため、実装が困難である。
本稿では,これら2つの問題にDNetを導入して対処することを提案する。
私たちの貢献は2つあります
a) より優れたオブジェクトレベルの深度推定を提供するために、新しい密結合予測層(DCP)を提案する。
b)特に自動運転シナリオでは,自動車のコストを増すことなく正確なスケールファクターを回収できるように,高密度幾何制約(dgc)を導入する。
大規模な実験が行われ、DCP層とDGCモジュールはそれぞれ、上記の問題を効果的に解決していることが証明された。
dcp層のおかげで、オブジェクト境界は深度マップでより識別しやすくなり、オブジェクトレベルでの深さがさらに長くなっている。
また,dgcを用いたスケールリカバリの性能は,カメラの高さが与えられ,画素の1.03\%以上を占める場合,地中情報と同等であることが示されている。
コードはhttps://github.com/TJ-IPLab/DNetで入手できる。
関連論文リスト
- Self-supervised Monocular Depth Estimation with Large Kernel Attention [30.44895226042849]
より詳細な情報を得るために,自己教師付き単眼深度推定ネットワークを提案する。
具体的には,長距離依存性をモデル化可能なカーネルアテンションに基づくデコーダを提案する。
提案手法は,KITTIデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-09-26T14:44:41Z) - OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - GAM-Depth: Self-Supervised Indoor Depth Estimation Leveraging a
Gradient-Aware Mask and Semantic Constraints [12.426365333096264]
本稿では,勾配認識マスクと意味制約という,2つの新しいコンポーネントをベースとしたGAM-Depthを提案する。
グラデーション対応マスクは、キー領域とテクスチャレス領域の両方の適応的かつ堅牢な監視を可能にする。
室内における自己監督深度推定のセマンティック制約の導入は、物体の境界における深度差を改善する。
論文 参考訳(メタデータ) (2024-02-22T07:53:34Z) - Toward Accurate Camera-based 3D Object Detection via Cascade Depth
Estimation and Calibration [20.82054596017465]
最近の3次元物体検出は、画像から3次元特徴空間への変換の精度によって制限されている。
本稿では,カメラを用いた3次元物体検出の基本的な課題である,正確な特徴持ち上げと物体位置決めのための深度情報を効果的に学習する方法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:21:26Z) - SwinDepth: Unsupervised Depth Estimation using Monocular Sequences via
Swin Transformer and Densely Cascaded Network [29.798579906253696]
教師付きトレーニングのための深層地下深度ラベルの取得は困難であり,単分子配列を用いた教師なし深度推定が有望な代替手段として出現する。
本稿では,画像特徴抽出器としてコンボリューションフリーのSwin Transformerを用い,局所的幾何学的特徴と大域的意味的特徴の両方を網羅して深度推定を行う。
また,Densely Cascaded Multi-scale Network (DCMNet)を提案する。
論文 参考訳(メタデータ) (2023-01-17T06:01:46Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Balanced Depth Completion between Dense Depth Inference and Sparse Range
Measurements via KISS-GP [14.158132769768578]
密集した正確な深度マップを推定することは、自動運転とロボット工学にとって重要な要件である。
近年のディープラーニングの進歩により、単一の画像から全解像度での深度推定が可能になった。
この驚くべき結果にもかかわらず、多くのディープラーニングベースの単眼深度推定アルゴリズムは、その精度をメーターレベルの推定誤差に保たない。
論文 参考訳(メタデータ) (2020-08-12T08:07:55Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。