論文の概要: Robust Depth Completion with Uncertainty-Driven Loss Functions
- arxiv url: http://arxiv.org/abs/2112.07895v1
- Date: Wed, 15 Dec 2021 05:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:00:57.848916
- Title: Robust Depth Completion with Uncertainty-Driven Loss Functions
- Title(参考訳): 不確かさ駆動損失関数を用いたロバスト深さ補完
- Authors: Yufan Zhu, Weisheng Dong, Leida Li, Jinjian Wu, Xin Li and Guangming
Shi
- Abstract要約: 本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
- 参考スコア(独自算出の注目度): 60.9237639890582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering a dense depth image from sparse LiDAR scans is a challenging task.
Despite the popularity of color-guided methods for sparse-to-dense depth
completion, they treated pixels equally during optimization, ignoring the
uneven distribution characteristics in the sparse depth map and the accumulated
outliers in the synthesized ground truth. In this work, we introduce
uncertainty-driven loss functions to improve the robustness of depth completion
and handle the uncertainty in depth completion. Specifically, we propose an
explicit uncertainty formulation for robust depth completion with Jeffrey's
prior. A parametric uncertain-driven loss is introduced and translated to new
loss functions that are robust to noisy or missing data. Meanwhile, we propose
a multiscale joint prediction model that can simultaneously predict depth and
uncertainty maps. The estimated uncertainty map is also used to perform
adaptive prediction on the pixels with high uncertainty, leading to a residual
map for refining the completion results. Our method has been tested on KITTI
Depth Completion Benchmark and achieved the state-of-the-art robustness
performance in terms of MAE, IMAE, and IRMSE metrics.
- Abstract(参考訳): スパースLiDARスキャンから密集した深度画像の復元は難しい作業である。
色誘導による奥行き完遂法が人気を博したにもかかわらず、最適化中に等しく画素を処理し、スパース深度マップにおける不均一分布特性や合成基底真理における累積外れ値を無視した。
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
具体的には、ジェフリーの先行したような頑健な深度完備化のための明確な不確かさの定式化を提案する。
パラメトリック不確実性駆動損失を導入し、ノイズや欠落データに対して堅牢な新しい損失関数に変換する。
一方,深度と不確実性を同時に予測できる多スケール共同予測モデルを提案する。
推定不確かさマップは、不確実度の高い画素に対して適応予測を行うためにも用いられ、その結果を精錬するための残留マップとなる。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSE測定値を用いて最先端のロバスト性性能を達成した。
関連論文リスト
- Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Gradient-based Uncertainty for Monocular Depth Estimation [5.7575052885308455]
単眼深度推定では、移動物体や反射材料のような画像コンテキストの乱れは、容易に誤った予測につながる。
本稿では,すでに訓練済みで固定された深度推定モデルに対するポストホック不確実性推定手法を提案する。
提案手法は,ニューラルネットワークの再トレーニングを必要とせずに,KITTI と NYU Depth V2 ベンチマークにおける最先端の不確実性推定結果を実現する。
論文 参考訳(メタデータ) (2022-08-03T12:21:02Z) - Improved Point Transformation Methods For Self-Supervised Depth
Prediction [4.103701929881022]
ステレオ画像対やエゴモーション画像対が与えられた場合、単眼深度推定の教師なし学習の一般的な成功方法は、学習した深度予測による画像再構成の品質を測定することである。
本稿では,変換後の点を新しい視点に正しく効率的に処理するzブッフィングアルゴリズムを提案する。
このアルゴリズムは、機械学習ライブラリの典型的なオペレーターによって実装されているため、差別化を自動サポートした既存の教師なし深度学習フレームワークに組み込むことができる。
論文 参考訳(メタデータ) (2021-02-18T03:42:40Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction [27.750031877854717]
本稿では,セマンティック情報を活用して光度損失の限界を克服するSAFENetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
論文 参考訳(メタデータ) (2020-10-06T17:22:25Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - Uncertainty-Aware CNNs for Depth Completion: Uncertainty from Beginning
to End [18.49954482336334]
本稿では, 疎雑音入力から最終予測まで, 深度データの不確かさのモデル化に着目する。
正規化畳み込みニューラルネットワーク(NCNN)に基づく自己教師型入力信頼度推定器を学習し,入力中の乱れの測定値を特定する手法を提案する。
深度推定のためのKITTIデータセットに対するアプローチを評価すると、予測精度、不確実性尺度の品質、計算効率の点で既存のベイズディープラーニングアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-06-05T10:18:35Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。