論文の概要: Self-supervised Egomotion and Depth Learning via Bi-directional
Coarse-to-Fine Scale Recovery
- arxiv url: http://arxiv.org/abs/2211.08904v1
- Date: Wed, 16 Nov 2022 13:36:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:24:40.369947
- Title: Self-supervised Egomotion and Depth Learning via Bi-directional
Coarse-to-Fine Scale Recovery
- Title(参考訳): 双方向粗大スケール回復による自己教師付き感情と深度学習
- Authors: Hao Qu, Lilian Zhang, Xiaoping Hu, Xiaofeng He, Xianfei Pan, Changhao
Chen
- Abstract要約: エゴモーメントと深さの自己教師による学習が注目されている。
これらの学習モデルは、自律走行とロボットのためのナビゲーションと知覚タスクをサポートするために、ポーズと深度マップを提供することができる。
本稿では,単眼画像から感情と深度を絶対的スケールで推定することのできる,新たな自己学習型ディープニューラルネットワークフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.783018880453836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning of egomotion and depth has recently attracted great
attentions. These learning models can provide pose and depth maps to support
navigation and perception task for autonomous driving and robots, while they do
not require high-precision ground-truth labels to train the networks. However,
monocular vision based methods suffer from pose scale-ambiguity problem, so
that can not generate physical meaningful trajectory, and thus their
applications are limited in real-world. We propose a novel self-learning deep
neural network framework that can learn to estimate egomotion and depths with
absolute metric scale from monocular images. Coarse depth scale is recovered
via comparing point cloud data against a pretrained model that ensures the
consistency of photometric loss. The scale-ambiguity problem is solved by
introducing a novel two-stages coarse-to-fine scale recovery strategy that
jointly refines coarse poses and depths. Our model successfully produces pose
and depth estimates in global scale-metric, even in low-light condition, i.e.
driving at night. The evaluation on the public datasets demonstrates that our
model outperforms both representative traditional and learning based VOs and
VIOs, e.g. VINS-mono, ORB-SLAM, SC-Learner, and UnVIO.
- Abstract(参考訳): エゴモーションと深さの自己教師付き学習が最近注目されている。
これらの学習モデルは、自律走行とロボットのナビゲーションと知覚タスクをサポートするためにポーズと深度マップを提供するが、ネットワークを訓練するために高精度な接地ラベルを必要としない。
しかし、単眼視覚に基づく手法はポーズスケールあいまいな問題に苦しむため、物理的に有意義な軌道を生成することができないため、実世界では応用が制限される。
本稿では,単眼画像から感情と深度を絶対的スケールで推定することのできる,新たな自己学習深層ニューラルネットワークフレームワークを提案する。
粗い深度スケールは、点雲データと予め訓練されたモデルを比較して、測光損失の整合性を保証する。
粗いポーズと深さを共同で洗練する2段階間粗いスケール回復戦略を導入することにより、スケール曖昧性問題を解決する。
我々のモデルは、夜間の運転のような低照度でも、グローバルスケールでポーズと深さの推定を成功させた。
公開データセットの評価から,我々のモデルは,VINS-mono,ORB-SLAM,SC-Learner,UnVIOなど,従来のVOとVIOの両方で優れていた。
関連論文リスト
- NimbleD: Enhancing Self-supervised Monocular Depth Estimation with Pseudo-labels and Large-scale Video Pre-training [2.4240014793575138]
我々は,効率的な単眼深度推定学習フレームワークであるNimbleDを紹介する。
このフレームワークはカメラ固有の機能を必要とせず、公開ビデオの大規模な事前トレーニングを可能にする。
論文 参考訳(メタデータ) (2024-08-26T10:50:14Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - GasMono: Geometry-Aided Self-Supervised Monocular Depth Estimation for
Indoor Scenes [47.76269541664071]
本稿では,フレームと低テクスチャの大きな回転に起因する屋内シーンにおける自己教師型単眼深度推定の課題に対処する。
モノクラーシーケンスから粗いカメラポーズを多視点形状で取得し,前者に対応する。
低テクスチャの効果を和らげるために、視覚変換器のグローバルな推論と過度に適合する反復的な自己蒸留機構を組み合わせる。
論文 参考訳(メタデータ) (2023-09-26T17:59:57Z) - Self-Supervised Multi-Object Tracking For Autonomous Driving From
Consistency Across Timescales [53.55369862746357]
自己管理型マルチオブジェクトトラッカーは、生のドメイン固有データから学習できるという大きな可能性を秘めている。
しかし、その再識別精度は、監督対象よりも低い。
本稿では,複数の連続フレームから再同定特徴を自己教師付きで学習できる学習目標を提案する。
論文 参考訳(メタデータ) (2023-04-25T20:47:29Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - SelfD: Self-Learning Large-Scale Driving Policies From the Web [13.879536370173506]
SelfDは、大量のオンラインモノクロイメージを利用することで、スケーラブルな運転を学ぶためのフレームワークである。
公開されているYouTubeビデオの大規模なデータセットを使用して、SelfDをトレーニングし、その一般化のメリットを、困難なナビゲーションシナリオ全体にわたって包括的に分析します。
論文 参考訳(メタデータ) (2022-04-21T17:58:36Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Self-Supervised Monocular Depth and Ego-Motion Estimation in Endoscopy:
Appearance Flow to the Rescue [38.168759071532676]
単眼ビデオから深度とエゴモーションを計算するために,自己教師付き学習技術が応用されている。
本研究では,明るさの不整合問題に対処するため,外観フローと呼ばれる新しい概念を導入する。
我々は,単眼深度と自我運動を同時に推定する統合的な自己監督フレームワークを構築した。
論文 参考訳(メタデータ) (2021-12-15T13:51:10Z) - MELD: Meta-Reinforcement Learning from Images via Latent State Models [109.1664295663325]
我々は,遅延状態モデルで推論を行う画像からメタRLのアルゴリズムを開発し,新しいスキルを素早く獲得する。
MELDは、画像から現実のロボット制御設定でトレーニングされた最初のメタRLアルゴリズムである。
論文 参考訳(メタデータ) (2020-10-26T23:50:30Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。