論文の概要: RealMonoDepth: Self-Supervised Monocular Depth Estimation for General
Scenes
- arxiv url: http://arxiv.org/abs/2004.06267v1
- Date: Tue, 14 Apr 2020 02:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:40:05.180535
- Title: RealMonoDepth: Self-Supervised Monocular Depth Estimation for General
Scenes
- Title(参考訳): RealMonoDepth: 一般シーンの自己監督型単眼深度推定
- Authors: Mertalp Ocal, Armin Mustafa
- Abstract要約: 既存の単眼深度推定法では、トレーニングに正確な深度測定が必要である。
自己監督的なアプローチは印象的な結果を示しているが、異なる奥行き範囲やカメラベースラインのシーンには一般化しない。
本研究では,屋内・屋外の多様なシーンに対して,実景深度を推定する自己教師型単眼深度推定手法であるRealMonoDepthを紹介する。
- 参考スコア(独自算出の注目度): 11.995578248462946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a generalised self-supervised learning approach for monocular
estimation of the real depth across scenes with diverse depth ranges from
1--100s of meters. Existing supervised methods for monocular depth estimation
require accurate depth measurements for training. This limitation has led to
the introduction of self-supervised methods that are trained on stereo image
pairs with a fixed camera baseline to estimate disparity which is transformed
to depth given known calibration. Self-supervised approaches have demonstrated
impressive results but do not generalise to scenes with different depth ranges
or camera baselines. In this paper, we introduce RealMonoDepth a
self-supervised monocular depth estimation approach which learns to estimate
the real scene depth for a diverse range of indoor and outdoor scenes. A novel
loss function with respect to the true scene depth based on relative depth
scaling and warping is proposed. This allows self-supervised training of a
single network with multiple data sets for scenes with diverse depth ranges
from both stereo pair and in the wild moving camera data sets. A comprehensive
performance evaluation across five benchmark data sets demonstrates that
RealMonoDepth provides a single trained network which generalises depth
estimation across indoor and outdoor scenes, consistently outperforming
previous self-supervised approaches.
- Abstract(参考訳): 本研究では,1~100mの深度範囲の異なるシーンにまたがる実深度を単眼で推定する,汎用的な自己教師型学習手法を提案する。
既存の単眼深度推定法では、トレーニングに正確な深度測定が必要である。
この制限により、固定されたカメラベースラインを持つステレオ画像対で訓練された自己教師方式が導入され、既知のキャリブレーションにより深さに変換される相違を推定する。
自己監督アプローチは印象的な結果を示しているが、深度範囲やカメラのベースラインが異なるシーンに一般化していない。
本稿では,室内および屋外のさまざまなシーンにおいて,実景深度を推定することを学ぶために,自己教師付き単眼深度推定手法であるrealmonodepthを提案する。
相対的な深さのスケーリングとワープに基づく,真のシーン深度に関する新たな損失関数を提案する。
これにより、ステレオペアと野生のカメラデータセットの両方から、さまざまな深さ範囲のシーンに対して、複数のデータセットを備えた単一のネットワークの自己教師付きトレーニングが可能になる。
5つのベンチマークデータセットの総合的な性能評価は、RealMonoDepthが屋内および屋外のシーンにおける深度推定を一般化する単一のトレーニングネットワークを提供し、従来よりも一貫して優れていることを示している。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Improving Depth Estimation using Location Information [0.0]
本稿では,自己教師型深度学習法の改良を行い,高精度な単眼深度推定を行う。
主なアイデアは、異なるフレームのシーケンスを考慮に入れたディープモデルをトレーニングすることであり、各フレームはその位置情報でタグ付けされる。
論文 参考訳(メタデータ) (2021-12-27T22:30:14Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。