論文の概要: Dynamo-Depth: Fixing Unsupervised Depth Estimation for Dynamical Scenes
- arxiv url: http://arxiv.org/abs/2310.18887v1
- Date: Sun, 29 Oct 2023 03:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 15:56:33.063208
- Title: Dynamo-Depth: Fixing Unsupervised Depth Estimation for Dynamical Scenes
- Title(参考訳): ダイナモ深さ:動的シーンの教師なし深さ推定
- Authors: Yihong Sun, Bharath Hariharan
- Abstract要約: ダイナモ・ディープス(Dynamo-Depth)は、単分子深度、3次元独立流れ場、およびラベルなし単分子ビデオからの運動セグメンテーションを共同学習することにより、動的運動を曖昧にするアプローチである。
提案手法は,移動物体の深度を著しく改善したオープンおよびヌースシーンにおける単眼深度推定における最先端性能を実現する。
- 参考スコア(独自算出の注目度): 40.46121828229776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised monocular depth estimation techniques have demonstrated
encouraging results but typically assume that the scene is static. These
techniques suffer when trained on dynamical scenes, where apparent object
motion can equally be explained by hypothesizing the object's independent
motion, or by altering its depth. This ambiguity causes depth estimators to
predict erroneous depth for moving objects. To resolve this issue, we introduce
Dynamo-Depth, an unifying approach that disambiguates dynamical motion by
jointly learning monocular depth, 3D independent flow field, and motion
segmentation from unlabeled monocular videos. Specifically, we offer our key
insight that a good initial estimation of motion segmentation is sufficient for
jointly learning depth and independent motion despite the fundamental
underlying ambiguity. Our proposed method achieves state-of-the-art performance
on monocular depth estimation on Waymo Open and nuScenes Dataset with
significant improvement in the depth of moving objects. Code and additional
results are available at https://dynamo-depth.github.io.
- Abstract(参考訳): 教師なしの単眼深度推定手法は奨励的な結果を示したが、通常はシーンが静的であると仮定する。
これらの技法は、物体の独立運動を仮定したり、物体の奥行きを変えたりすることで、見かけの物体の動きが等しく説明できるダイナミックなシーンで訓練されたときに苦しむ。
この曖昧さにより、深度推定器は移動物体の誤った深さを予測する。
この問題を解決するために,単眼深度,3次元独立流れ場,無ラベル単眼映像からの運動分割を共同で学習することにより,動的運動を曖昧化させる統一的手法であるdynamo-depthを紹介する。
具体的には, 基礎的な曖昧さにもかかわらず, 協調学習の深さと独立動作には, 運動分節の良質な初期推定が十分であることを示す。
提案手法は, Waymo Open と nuScenes Dataset の単眼深度推定における最先端性能を実現し, 移動物体の深度を著しく改善する。
コードと追加結果はhttps://dynamo-depth.github.ioで入手できる。
関連論文リスト
- Mining Supervision for Dynamic Regions in Self-Supervised Monocular Depth Estimation [23.93080319283679]
既存の手法では、画像再構成損失を中心に、画素の深さと動きを共同で推定する。
動的領域1は、深度と動きの推定に固有の曖昧さのため、これらの手法にとって重要な課題である。
本稿では,動的領域に対する擬似深度ラベルをトレーニングデータから活用する自己教師型トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-23T10:51:15Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Disentangling Object Motion and Occlusion for Unsupervised Multi-frame
Monocular Depth [37.021579239596164]
既存の動的対象に焦点をあてた手法は、トレーニング損失レベルのミスマッチ問題を部分的に解決しただけである。
本稿では,これらの問題を予測レベルと監督損失レベルの両方で解くために,新しい多フレーム単眼深度予測法を提案する。
我々の手法はDynamicDepthと呼ばれ、自己教師付きサイクル一貫性学習スキームによって訓練された新しいフレームワークである。
論文 参考訳(メタデータ) (2022-03-29T01:36:11Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Unsupervised Monocular Depth Reconstruction of Non-Rigid Scenes [87.91841050957714]
本稿では,ダイナミックシーンの深度推定のための非監視単眼フレームワークを提案する。
再構成した3次元点間の対数距離を日和見的に保存することを目的とした訓練目標を導出する。
提案手法は,非剛性シーンの挑戦的な映像から3Dを再構成する能力を実証し,有望な結果を提供する。
論文 参考訳(メタデータ) (2020-12-31T16:02:03Z) - Self-Supervised Joint Learning Framework of Depth Estimation via
Implicit Cues [24.743099160992937]
深度推定のための自己教師型共同学習フレームワークを提案する。
提案するフレームワークは,KITTIおよびMake3Dデータセット上での最先端(SOTA)よりも優れている。
論文 参考訳(メタデータ) (2020-06-17T13:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。