論文の概要: Camera Height Doesn't Change: Unsupervised Monocular Scale-Aware
Road-Scene Depth Estimation
- arxiv url: http://arxiv.org/abs/2312.04530v1
- Date: Thu, 7 Dec 2023 18:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 13:32:12.633521
- Title: Camera Height Doesn't Change: Unsupervised Monocular Scale-Aware
Road-Scene Depth Estimation
- Title(参考訳): カメラの高さは変わらない:教師なし単眼スケール対応の道路深み推定
- Authors: Genki Kinoshita and Ko Nishino
- Abstract要約: 本稿では,StableCamHと呼ばれる新しいスケール対応単眼深度推定手法を提案する。
単眼深度推定をカメラ高さ最適化として定式化することにより、堅牢で正確な教師なしエンドツーエンドトレーニングを実現する。
KITTIとCityscapesの実験は、StableCamHの有効性、関連する方法と比較して最先端の精度、一般化可能性を示している。
- 参考スコア(独自算出の注目度): 22.691593216516868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimators either require explicit scale supervision through
auxiliary sensors or suffer from scale ambiguity, which renders them difficult
to deploy in downstream applications. A possible source of scale is the sizes
of objects found in the scene, but inaccurate localization makes them difficult
to exploit. In this paper, we introduce a novel scale-aware monocular depth
estimation method called StableCamH that does not require any auxiliary sensor
or supervision. The key idea is to exploit prior knowledge of object heights in
the scene but aggregate the height cues into a single invariant measure common
to all frames in a road video sequence, namely the camera height. By
formulating monocular depth estimation as camera height optimization, we
achieve robust and accurate unsupervised end-to-end training. To realize
StableCamH, we devise a novel learning-based size prior that can directly
convert car appearance into its dimensions. Extensive experiments on KITTI and
Cityscapes show the effectiveness of StableCamH, its state-of-the-art accuracy
compared with related methods, and its generalizability. The training framework
of StableCamH can be used for any monocular depth estimation method and will
hopefully become a fundamental building block for further work.
- Abstract(参考訳): 単眼深度推定器は補助センサーによる明示的なスケール監視を必要とするか、あるいはスケールの曖昧さに苦しむため、下流のアプリケーションではデプロイが困難になる。
スケールの可能な源は、シーンで見つかったオブジェクトのサイズであるが、不正確なローカライズによって悪用が困難になる。
本稿では,補助センサや監視を必要とせず,stablecamhと呼ばれる新しいスケールアウェア単眼深度推定法を提案する。
キーとなるアイデアは、シーン内のオブジェクトの高さに関する事前の知識を活用することであるが、高さの手がかりをロードビデオシーケンスのすべてのフレームに共通する単一の不変測度、すなわちカメラの高さに集約する。
カメラ高さ最適化として単眼深度推定を定式化することにより,堅牢かつ高精度なエンドツーエンドトレーニングを実現する。
StableCamHを実現するために,自動車の外観を直接寸法に変換する新しい学習ベースサイズを考案した。
KITTIとCityscapesの大規模な実験は、StableCamHの有効性、関連する方法と比較して最先端の精度、一般化可能性を示している。
stablecamhのトレーニングフレームワークは、任意の単眼深度推定に使用することができ、さらなる作業のための基本的なビルディングブロックになることを願っている。
関連論文リスト
- FisheyeDepth: A Real Scale Self-Supervised Depth Estimation Model for Fisheye Camera [8.502741852406904]
魚眼カメラに適した自己監督深度推定モデルである魚眼深度について述べる。
魚眼カメラモデルを訓練中の投射と再投射の段階に組み込んで画像歪みの処理を行う。
また、連続するフレーム間の幾何学的投影に実際のポーズ情報を組み込んで、従来のポーズネットワークで推定されたポーズを置き換える。
論文 参考訳(メタデータ) (2024-09-23T14:31:42Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - FSNet: Redesign Self-Supervised MonoDepth for Full-Scale Depth
Prediction for Autonomous Driving [18.02943016671203]
本研究では,自律走行シーンの高精度なスケール認識深度予測のための包括的自己教師型フレームワークを提案する。
特に,FSNetと呼ばれるフルスケール深度予測ネットワークを導入する。
FSNetを使えば、ロボットや車両は1台のカメラしか持たず、訓練用画像フレームやカメラポーズのシーケンスを収集し、余分なラベル付け作業や3Dデータなしで環境の正確な3D深度を推測することができる。
論文 参考訳(メタデータ) (2023-04-21T03:17:04Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。