論文の概要: Calibrating Self-supervised Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2009.07714v2
- Date: Wed, 13 Oct 2021 12:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:20:34.775932
- Title: Calibrating Self-supervised Monocular Depth Estimation
- Title(参考訳): 自己監督型単眼深度推定の校正
- Authors: Robert McCraith, Lukas Neumann, Andrea Vedaldi
- Abstract要約: 近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
- 参考スコア(独自算出の注目度): 77.77696851397539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the recent years, many methods demonstrated the ability of neural networks
to learn depth and pose changes in a sequence of images, using only
self-supervision as the training signal. Whilst the networks achieve good
performance, the often over-looked detail is that due to the inherent ambiguity
of monocular vision they predict depth up to an unknown scaling factor. The
scaling factor is then typically obtained from the LiDAR ground truth at test
time, which severely limits practical applications of these methods. In this
paper, we show that incorporating prior information about the camera
configuration and the environment, we can remove the scale ambiguity and
predict depth directly, still using the self-supervised formulation and not
relying on any additional sensors.
- Abstract(参考訳): 近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
ネットワークの性能は良好だが、しばしば見過ごされる詳細は、単眼視の本来の曖昧さのため、未知のスケーリング係数まで深さを予測することである。
スケーリング係数は通常、テスト時のLiDAR基底真理から得られ、これらの手法の実践的応用を著しく制限する。
本稿では,カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己監督型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
関連論文リスト
- Uncertainty and Self-Supervision in Single-View Depth [0.8158530638728501]
シングルビューの深さ推定は、単一のビューから3次元幾何学を説明する複数の解が存在するため、不適切な問題である。
ディープニューラルネットワークは単一の視点から深度を捉えるのに有効であることが示されているが、現在の方法論の大半は本質的に決定論的である。
我々はベイジアンディープニューラルネットワークにおける教師付き単一視点深度の不確かさを定量化することでこの問題に対処した。
論文 参考訳(メタデータ) (2024-06-20T11:46:17Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Image Masking for Robust Self-Supervised Monocular Depth Estimation [12.435468563991174]
自己教師付き単眼深度推定は3次元シーン理解のための健全なタスクである。
自己教師付き単眼深度推定にマスク付き画像モデリングを適用するMIMDepthを提案する。
論文 参考訳(メタデータ) (2022-10-05T15:57:53Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - The Temporal Opportunist: Self-Supervised Multi-Frame Monocular Depth [28.06671063873351]
ManyDepth は密度深度推定への適応的なアプローチである。
信頼性が低いと判断された場合、ネットワークがコストを無視するように促す新しい一貫性損失を示す。
論文 参考訳(メタデータ) (2021-04-29T17:53:42Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。