論文の概要: Diffusion-Augmented Depth Prediction with Sparse Annotations
- arxiv url: http://arxiv.org/abs/2308.02283v1
- Date: Fri, 4 Aug 2023 12:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 13:02:06.395071
- Title: Diffusion-Augmented Depth Prediction with Sparse Annotations
- Title(参考訳): スパースアノテーションを用いた拡散型奥行き予測
- Authors: Jiaqi Li, Yiran Wang, Zihao Huang, Jinghong Zheng, Ke Xian, Zhiguo
Cao, Jianming Zhang
- Abstract要約: 自律運転シーンでは、アノテーションの多さがタスクを難しくする。
拡散深度予測(DADP)と呼ばれる教師付きフレームワークを提案する。
拡散モデルの構造的特性を利用して,プラグ・アンド・プレイ方式で深度モデルの深度構造を強制する。
- 参考スコア(独自算出の注目度): 39.6959637712116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth estimation aims to predict dense depth maps. In autonomous driving
scenes, sparsity of annotations makes the task challenging. Supervised models
produce concave objects due to insufficient structural information. They
overfit to valid pixels and fail to restore spatial structures. Self-supervised
methods are proposed for the problem. Their robustness is limited by pose
estimation, leading to erroneous results in natural scenes. In this paper, we
propose a supervised framework termed Diffusion-Augmented Depth Prediction
(DADP). We leverage the structural characteristics of diffusion model to
enforce depth structures of depth models in a plug-and-play manner. An
object-guided integrality loss is also proposed to further enhance regional
structure integrality by fetching objective information. We evaluate DADP on
three driving benchmarks and achieve significant improvements in depth
structures and robustness. Our work provides a new perspective on depth
estimation with sparse annotations in autonomous driving scenes.
- Abstract(参考訳): 深度推定は深度マップの予測を目的とする。
自律運転シーンでは、アノテーションの多さがタスクを難しくする。
監視されたモデルは、構造情報が不十分なため凹凸オブジェクトを生成する。
彼らはピクセルの有効性に過度に適合し、空間構造を復元できない。
この問題に対して自己管理手法が提案されている。
その頑丈さはポーズ推定によって制限され、自然界における誤った結果をもたらす。
本稿では拡散拡張深さ予測(DADP)と呼ばれる教師付きフレームワークを提案する。
拡散モデルの構造的特性を利用して,プラグ・アンド・プレイ方式で深度モデルの深度構造を強制する。
また,対象情報をフェッチすることで地域構造統合性をさらに高めるために,対象案内積分損失も提案する。
我々は,3つの駆動ベンチマーク上でDADPを評価し,深度構造とロバスト性を大幅に改善した。
我々の研究は、自律走行シーンにおけるスパースアノテーションによる深度推定の新しい視点を提供する。
関連論文リスト
- Structure-Centric Robust Monocular Depth Estimation via Knowledge Distillation [9.032563775151074]
単眼深度推定はコンピュータビジョンにおける3次元知覚の重要な手法である。
現実のシナリオでは、悪天候の変動、動きのぼやけ、夜間の照明条件の悪いシーンなど、大きな課題に直面している。
我々は,局所的なテクスチャへの過度な依存を低減し,パターンの欠落や干渉に対する堅牢性を向上するための新しいアプローチを考案した。
論文 参考訳(メタデータ) (2024-10-09T15:20:29Z) - Unsupervised Monocular Depth Estimation Based on Hierarchical Feature-Guided Diffusion [21.939618694037108]
教師なし単分子深度推定は、地上の真実を示さずに訓練できるため、広く注目を集めている。
我々は、教師なし単眼深度推定のために、生成ネットワーク間でよく収束する拡散モデルを用いる。
このモデルは深度分布の学習と解釈の能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-14T07:31:20Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - EdgeConv with Attention Module for Monocular Depth Estimation [4.239147046986999]
正確な深度マップを生成するためには,モデルがシーンの構造情報を学習することが重要である。
単眼深度推定の難しさを解決するために,Patch-Wise EdgeConv Module (PEM) と EdgeConv Attention Module (EAM) を提案する。
提案手法は,NYU Depth V2 と KITTI スプリットの2つの一般的なデータセットを用いて評価し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-06-16T08:15:20Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。