論文の概要: Unsupervised Monocular Depth Learning in Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2010.16404v2
- Date: Sat, 7 Nov 2020 19:19:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:36:00.481260
- Title: Unsupervised Monocular Depth Learning in Dynamic Scenes
- Title(参考訳): 動的シーンにおける教師なし単眼深度学習
- Authors: Hanhan Li, Ariel Gordon, Hang Zhao, Vincent Casser, Anelia Angelova
- Abstract要約: 本研究では,物体の深度,エゴモーション,高密度3次元翻訳場の推定を共同で学習する手法を提案する。
本研究は,3次元翻訳分野に関する先行知識を具現化することにより,明らかに過小評価された問題を正規化できることを示す。
- 参考スコア(独自算出の注目度): 40.266197110700865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for jointly training the estimation of depth, ego-motion,
and a dense 3D translation field of objects relative to the scene, with
monocular photometric consistency being the sole source of supervision. We show
that this apparently heavily underdetermined problem can be regularized by
imposing the following prior knowledge about 3D translation fields: they are
sparse, since most of the scene is static, and they tend to be constant for
rigid moving objects. We show that this regularization alone is sufficient to
train monocular depth prediction models that exceed the accuracy achieved in
prior work for dynamic scenes, including methods that require semantic input.
Code is at
https://github.com/google-research/google-research/tree/master/depth_and_motion_learning .
- Abstract(参考訳): 本稿では,シーンに対する被写体の深さ,エゴ運動,密接な3次元変換場を共同学習し,単眼光量一貫性を監督の唯一の源とする手法を提案する。
本研究は,3次元翻訳分野に関する先行知識を補足することで,この明らかに過小評価された問題を正規化できることを示し,シーンの大部分が静的であり,剛体移動物体に対して一定である傾向がある。
この正規化だけでは、動的シーンの前の作業で達成された精度を超える単眼深度予測モデルを訓練するのに十分であることを示す。
コードはhttps://github.com/google-research/google-research/tree/master/depth_and_motion_learningにある。
関連論文リスト
- Dynamo-Depth: Fixing Unsupervised Depth Estimation for Dynamical Scenes [40.46121828229776]
ダイナモ・ディープス(Dynamo-Depth)は、単分子深度、3次元独立流れ場、およびラベルなし単分子ビデオからの運動セグメンテーションを共同学習することにより、動的運動を曖昧にするアプローチである。
提案手法は,移動物体の深度を著しく改善したオープンおよびヌースシーンにおける単眼深度推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-29T03:24:16Z) - RM-Depth: Unsupervised Learning of Recurrent Monocular Depth in Dynamic
Scenes [7.81768535871051]
単分子深度と完全な3次元運動を共同で予測するための教師なし学習フレームワークが提案されている。
リカレント変調ユニットは、適応的かつ反復的にエンコーダとデコーダの特徴を融合するために使用される。
ワーピングに基づくネットワークは、セマンティック・プレファレンスを使わずに移動物体の運動場を推定するために用いられる。
論文 参考訳(メタデータ) (2023-03-08T09:11:50Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - MonoDETR: Depth-guided Transformer for Monocular 3D Object Detection [61.89277940084792]
深度誘導型TRansformer(MonoDETR)を用いたモノクロ検出のための最初のDETRフレームワークについて紹介する。
我々は3Dオブジェクト候補を学習可能なクエリとして定式化し、オブジェクトとシーンの深度相互作用を行うための深度誘導デコーダを提案する。
モノクルイメージを入力としてKITTIベンチマークでは、MonoDETRは最先端のパフォーマンスを実現し、追加の深度アノテーションを必要としない。
論文 参考訳(メタデータ) (2022-03-24T19:28:54Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - Unsupervised Monocular Depth Reconstruction of Non-Rigid Scenes [87.91841050957714]
本稿では,ダイナミックシーンの深度推定のための非監視単眼フレームワークを提案する。
再構成した3次元点間の対数距離を日和見的に保存することを目的とした訓練目標を導出する。
提案手法は,非剛性シーンの挑戦的な映像から3Dを再構成する能力を実証し,有望な結果を提供する。
論文 参考訳(メタデータ) (2020-12-31T16:02:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。