論文の概要: BaseBoostDepth: Exploiting Larger Baselines For Self-supervised Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2407.20437v1
- Date: Mon, 29 Jul 2024 22:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 18:48:44.346490
- Title: BaseBoostDepth: Exploiting Larger Baselines For Self-supervised Monocular Depth Estimation
- Title(参考訳): BaseBoostDepth: 自己教師型単眼深度推定のためにより大きなベースラインを爆発させる
- Authors: Kieran Saunders, Luis J. Manso, George Vogiatzis,
- Abstract要約: ポーズ推定の精度を高めるために、インクリメンタルなポーズ推定を導入する。
我々の最終深度ネットワークは、テスト時に計算複雑性を増大させることなく、KITTIとSynS-patchesデータセットの最先端性能を実現する。
- 参考スコア(独自算出の注目度): 2.1028463367241033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the domain of multi-baseline stereo, the conventional understanding is that, in general, increasing baseline separation substantially enhances the accuracy of depth estimation. However, prevailing self-supervised depth estimation architectures primarily use minimal frame separation and a constrained stereo baseline. Larger frame separations can be employed; however, we show this to result in diminished depth quality due to various factors, including significant changes in brightness, and increased areas of occlusion. In response to these challenges, our proposed method, BaseBoostDepth, incorporates a curriculum learning-inspired optimization strategy to effectively leverage larger frame separations. However, we show that our curriculum learning-inspired strategy alone does not suffice, as larger baselines still cause pose estimation drifts. Therefore, we introduce incremental pose estimation to enhance the accuracy of pose estimations, resulting in significant improvements across all depth metrics. Additionally, to improve the robustness of the model, we introduce error-induced reconstructions, which optimize reconstructions with added error to the pose estimations. Ultimately, our final depth network achieves state-of-the-art performance on KITTI and SYNS-patches datasets across image-based, edge-based, and point cloud-based metrics without increasing computational complexity at test time. The project website can be found at https://kieran514.github.io/BaseBoostDepth-Project.
- Abstract(参考訳): マルチベースラインステレオの領域では、一般的に、ベースライン分離の増加は、深さ推定の精度を大幅に向上させる。
しかし、一般的な自己監督型深度推定アーキテクチャは主に最小のフレーム分離と制約付きステレオベースラインを使用する。
より大きなフレーム分離を用いることができるが、明るさの顕著な変化や閉塞領域の増加など、様々な要因による深度品質の低下が示される。
これらの課題に対応するために,提案手法であるBaseBoostDepthは,より大規模なフレーム分離を効果的に活用するためのカリキュラムに着想を得た最適化戦略を取り入れている。
しかし,我々のカリキュラムに着想を得た戦略だけでは十分ではないことが明らかとなった。
そこで我々は,ポーズ推定の精度を高めるために,インクリメンタルなポーズ推定を導入する。
さらに,モデルのロバスト性を改善するために,ポーズ推定に誤りを加えて再構成を最適化する誤り誘発再構成を導入する。
最終的に、我々の最終深度ネットワークは、テスト時に計算複雑性を増大させることなく、画像ベース、エッジベース、ポイントクラウドベースのメトリクスにわたるKITTIとSynS-patchesデータセットの最先端のパフォーマンスを達成する。
プロジェクトのWebサイトはhttps://kieran514.github.io/BaseBoostDepth-Projectにある。
関連論文リスト
- Component-based Sketching for Deep ReLU Nets [55.404661149594375]
各種タスクのためのディープネットコンポーネントに基づくスケッチ手法を開発した。
我々はディープネットトレーニングを線形経験的リスク最小化問題に変換する。
提案したコンポーネントベーススケッチは飽和関数の近似においてほぼ最適であることを示す。
論文 参考訳(メタデータ) (2024-09-21T15:30:43Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Self-Supervised Learning based Depth Estimation from Monocular Images [0.0]
単色深度推定の目標は、入力として2次元単色RGB画像が与えられた深度マップを予測することである。
我々は、トレーニング中に固有のカメラパラメータを実行し、我々のモデルをさらに一般化するために天気増悪を適用することを計画している。
論文 参考訳(メタデータ) (2023-04-14T07:14:08Z) - Robust Monocular Localization of Drones by Adapting Domain Maps to Depth
Prediction Inaccuracies [0.4523163728236143]
本稿では,深層学習に基づく深度予測とベイズフィルタリングに基づくポーズ推論を併用して,新しい単眼位置推定フレームワークを提案する。
提案するクロスモーダル・フレームワークは,モデルスケーラビリティと環境変動に対する耐性に関して,ディープラーニングのみの予測を著しく上回っている。
論文 参考訳(メタデータ) (2022-10-27T15:48:53Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Depth Refinement for Improved Stereo Reconstruction [13.941756438712382]
立体画像からの深度推定の現在の技術は、なおも内蔵の欠点に悩まされている。
簡単な解析により、深度誤差は物体の距離に2乗比例することが明らかになった。
本研究では,深度推定に改良ネットワークを用いた簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-12-15T12:21:08Z) - AdaBins: Depth Estimation using Adaptive Bins [43.07310038858445]
本稿では,画像毎の中心値が適応的に推定されるビンに深さ範囲を分割するトランスフォーマーアーキテクチャブロックを提案する。
以上の結果から,いくつかの一般的な深度データセットの最先端性に対する決定的な改善が得られた。
論文 参考訳(メタデータ) (2020-11-28T14:40:45Z) - Deep Keypoint-Based Camera Pose Estimation with Geometric Constraints [80.60538408386016]
連続するフレームから相対的なカメラのポーズを推定することは、視覚計測の基本的な問題である。
本稿では,検出,特徴抽出,マッチング,外乱除去のための学習可能なモジュールで構成されるエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-29T21:41:31Z) - Towards Better Generalization: Joint Depth-Pose Learning without PoseNet [36.414471128890284]
自己教師型共同深層学習におけるスケール不整合の本質的問題に対処する。
既存の手法の多くは、全ての入力サンプルで一貫した深さとポーズを学習できると仮定している。
本稿では,ネットワーク推定からスケールを明示的に切り離す新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-04-03T00:28:09Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。