論文の概要: Multi-view Monocular Depth and Uncertainty Prediction with Deep SfM in
Dynamic Environments
- arxiv url: http://arxiv.org/abs/2201.08633v1
- Date: Fri, 21 Jan 2022 10:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:29:45.877160
- Title: Multi-view Monocular Depth and Uncertainty Prediction with Deep SfM in
Dynamic Environments
- Title(参考訳): 動的環境における深部sfmによる多視点単眼深度と不確かさ予測
- Authors: Christian Homeyer, Oliver Lange, Christoph Schn\"orr
- Abstract要約: 動的環境下でのモノクロ映像からの深度と動きの3次元再構成は, 極めて不良な問題である。
このような環境における現状のマルチビューシステム(SotA)の性能について検討する。
- 参考スコア(独自算出の注目度): 0.2426580753117204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D reconstruction of depth and motion from monocular video in dynamic
environments is a highly ill-posed problem due to scale ambiguities when
projecting to the 2D image domain. In this work, we investigate the performance
of the current State-of-the-Art (SotA) deep multi-view systems in such
environments. We find that current supervised methods work surprisingly well
despite not modelling individual object motions, but make systematic errors due
to a lack of dense ground truth data. To detect such errors during usage, we
extend the cost volume based Deep Video to Depth (DeepV2D) framework
\cite{teed2018deepv2d} with a learned uncertainty. Our Deep Video to certain
Depth (DeepV2cD) model allows i) to perform en par or better with current SotA
and ii) achieve a better uncertainty measure than the naive Shannon entropy.
Our experiments show that a simple filter strategy based on the uncertainty can
significantly reduce systematic errors. This results in cleaner reconstructions
both on static and dynamic parts of the scene.
- Abstract(参考訳): 動的環境下でのモノクロ映像からの深度と動きの3次元再構成は,2次元画像領域に投影する際の視界のあいまいさが問題となる。
本研究では,このような環境における現在の最先端(sota)深層マルチビューシステムの性能について検討する。
個々の物体の動きをモデル化しないにもかかわらず、現在の教師あり手法は驚くほどうまく機能するが、密度の高い地上真実データが欠如しているため、体系的な誤りを犯す。
使用中のエラーを検出するため,DeepV2D(DeepV2D)フレームワーク \cite{teed2018deepv2d} に,コストボリュームに基づくDeep Video を拡張した。
ディープビデオからDeepV2cD(DeepV2cD)モデルまで
i)現在の SotA と同等以上の性能を発揮すること
二 ナイーブ・シャノンのエントロピーよりも優れた不確実性測度を達成すること。
本実験では,不確実性に基づく単純なフィルタ戦略により,系統的誤りを著しく低減できることを示す。
これにより、シーンの静的部分と動的部分の両方で、クリーンな再構築が可能になる。
関連論文リスト
- DepthLab: From Partial to Complete [80.58276388743306]
不足する値は、幅広いアプリケーションにわたる深度データにとって共通の課題である。
この作業は、イメージ拡散プリエントを利用した基礎深度塗装モデルであるDepthLabと、このギャップを埋めるものだ。
提案手法は,3Dシーンのインペイント,テキストから3Dシーン生成,DUST3Rによるスパースビュー再構成,LiDAR深度補完など,様々なダウンストリームタスクにおいて有用であることを示す。
論文 参考訳(メタデータ) (2024-12-24T04:16:38Z) - D$^3$epth: Self-Supervised Depth Estimation with Dynamic Mask in Dynamic Scenes [23.731667977542454]
D$3$epthは動的シーンにおける自己教師付き深度推定の新しい手法である。
これは2つの重要な視点から、動的オブジェクトの課題に取り組む。
既存の自己教師付き単分子深度推定ベースラインよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-11-07T16:07:00Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - Manydepth2: Motion-Aware Self-Supervised Multi-Frame Monocular Depth Estimation in Dynamic Scenes [45.070725750859786]
動的オブジェクトと静的背景の両方に対して正確な深度推定を実現するため,Marydepth2を提案する。
動的コンテンツによって引き起こされる課題に対処するために、光学的流れと粗い単分子深度を取り入れて擬似静的参照フレームを作成する。
このフレームを使用して、バニラターゲットフレームと協調してモーション対応のコストボリュームを構築する。
論文 参考訳(メタデータ) (2023-12-23T14:36:27Z) - Dynamo-Depth: Fixing Unsupervised Depth Estimation for Dynamical Scenes [40.46121828229776]
ダイナモ・ディープス(Dynamo-Depth)は、単分子深度、3次元独立流れ場、およびラベルなし単分子ビデオからの運動セグメンテーションを共同学習することにより、動的運動を曖昧にするアプローチである。
提案手法は,移動物体の深度を著しく改善したオープンおよびヌースシーンにおける単眼深度推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-29T03:24:16Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - BEVStereo: Enhancing Depth Estimation in Multi-view 3D Object Detection
with Dynamic Temporal Stereo [15.479670314689418]
本稿では,マッチング候補のスケールを動的に選択するための効果的な時間ステレオ手法を提案する。
我々は、より価値のある候補を更新するための反復アルゴリズムを設計し、移動可能な候補に適応する。
BEVStereoは、nuScenesデータセットのカメラのみのトラックで、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-09-21T10:21:25Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Unsupervised Monocular Depth Reconstruction of Non-Rigid Scenes [87.91841050957714]
本稿では,ダイナミックシーンの深度推定のための非監視単眼フレームワークを提案する。
再構成した3次元点間の対数距離を日和見的に保存することを目的とした訓練目標を導出する。
提案手法は,非剛性シーンの挑戦的な映像から3Dを再構成する能力を実証し,有望な結果を提供する。
論文 参考訳(メタデータ) (2020-12-31T16:02:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。