論文の概要: Don't Forget The Past: Recurrent Depth Estimation from Monocular Video
- arxiv url: http://arxiv.org/abs/2001.02613v2
- Date: Tue, 28 Jul 2020 10:27:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 10:10:22.355511
- Title: Don't Forget The Past: Recurrent Depth Estimation from Monocular Video
- Title(参考訳): 過去を忘れるな:単眼ビデオからの繰り返しの深さ推定
- Authors: Vaishakh Patil, Wouter Van Gansbeke, Dengxin Dai, Luc Van Gool
- Abstract要約: 私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
- 参考スコア(独自算出の注目度): 92.84498980104424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous cars need continuously updated depth information. Thus far, depth
is mostly estimated independently for a single frame at a time, even if the
method starts from video input. Our method produces a time series of depth
maps, which makes it an ideal candidate for online learning approaches. In
particular, we put three different types of depth estimation (supervised depth
prediction, self-supervised depth prediction, and self-supervised depth
completion) into a common framework. We integrate the corresponding networks
with a ConvLSTM such that the spatiotemporal structures of depth across frames
can be exploited to yield a more accurate depth estimation. Our method is
flexible. It can be applied to monocular videos only or be combined with
different types of sparse depth patterns. We carefully study the architecture
of the recurrent network and its training strategy. We are first to
successfully exploit recurrent networks for real-time self-supervised monocular
depth estimation and completion. Extensive experiments show that our recurrent
method outperforms its image-based counterpart consistently and significantly
in both self-supervised scenarios. It also outperforms previous depth
estimation methods of the three popular groups. Please refer to
https://www.trace.ethz.ch/publications/2020/rec_depth_estimation/ for details.
- Abstract(参考訳): 自動運転車は深度情報を継続的に更新する必要がある。
これまでのところ、この手法がビデオ入力から始まっても、深さは1フレームずつ独立して推定される。
本手法は,オンライン学習手法の最適候補として,時系列の深度マップを生成する。
特に,3種類の深さ推定(教師付き深さ予測,自己教師付き深さ予測,自己教師付き深さ完了)を共通の枠組みとした。
対応するネットワークをConvLSTMと統合し、フレーム間の深さの時空間構造を利用してより正確な深さ推定を行う。
私たちの方法は柔軟です。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
我々は,リカレントネットワークのアーキテクチャとそのトレーニング戦略を慎重に検討する。
まず,実時間自己教師付き単眼深度推定と完了のための再帰ネットワークの活用に成功した。
大規模な実験により, 再帰的手法は, 双方の自己監督シナリオにおいて, 画像ベースよりも一貫して, 著しく優れていた。
また、従来の3つのポピュラーグループの深さ推定法を上回っている。
詳細はhttps://www.trace.ethz.ch/publications/2020/rec_depth_estimation/を参照。
関連論文リスト
- Learning Temporally Consistent Video Depth from Video Diffusion Priors [57.929828486615605]
本研究は,映像深度推定の課題に対処する。
我々は予測タスクを条件付き生成問題に再構成する。
これにより、既存のビデオ生成モデルに埋め込まれた事前の知識を活用することができる。
論文 参考訳(メタデータ) (2024-06-03T16:20:24Z) - Repurposing Diffusion-Based Image Generators for Monocular Depth Estimation [20.230238670888454]
本稿では,アフィン不変な単分子深度推定法であるMarigoldを紹介する。
合成トレーニングデータのみを使用して、単一のGPU上で数日で微調整できる。
特定のケースで20%以上のパフォーマンス向上を含む、幅広いデータセットで最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-12-04T18:59:13Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - How Far Can I Go ? : A Self-Supervised Approach for Deterministic Video
Depth Forecasting [23.134156184783357]
本研究では,将来の未観測都市景観の深度推定を予測するための,新たな自己監督手法を提案する。
この研究は、ビデオの今後観測されないフレームの単眼深度を推定するための自己教師付き学習を初めて探求した。
論文 参考訳(メタデータ) (2022-07-01T15:51:17Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - RealMonoDepth: Self-Supervised Monocular Depth Estimation for General
Scenes [11.995578248462946]
既存の単眼深度推定法では、トレーニングに正確な深度測定が必要である。
自己監督的なアプローチは印象的な結果を示しているが、異なる奥行き範囲やカメラベースラインのシーンには一般化しない。
本研究では,屋内・屋外の多様なシーンに対して,実景深度を推定する自己教師型単眼深度推定手法であるRealMonoDepthを紹介する。
論文 参考訳(メタデータ) (2020-04-14T02:03:10Z) - Monocular Depth Estimation Based On Deep Learning: An Overview [16.2543991384566]
単一の画像から深度情報(眼深度推定)を推定することは不適切な問題である。
ディープラーニングは最近広く研究され、精度で有望なパフォーマンスを達成した。
深度推定の精度を向上させるために,様々な種類のネットワークフレームワーク,損失関数,トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T12:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。