論文の概要: Self-supervised Visual-LiDAR Odometry with Flip Consistency
- arxiv url: http://arxiv.org/abs/2101.01322v1
- Date: Tue, 5 Jan 2021 02:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 21:24:12.848690
- Title: Self-supervised Visual-LiDAR Odometry with Flip Consistency
- Title(参考訳): Flip Consistencyを用いた自己監督型ビジュアルLiDARオドメトリー
- Authors: Bin Li and Mu Hu and Shuling Wang and Lianghao Wang and Xiaojin Gong
- Abstract要約: 自己監督型視覚ライダー・オドメトリー(Self-VLO)フレームワークを提案する。
3dlidarポイントから投影された単眼画像とスパース深度マップの両方を入力として取得する。
エンドツーエンドの学習方法でポーズと深さの推定を生成する。
- 参考スコア(独自算出の注目度): 7.883162238852467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most learning-based methods estimate ego-motion by utilizing visual sensors,
which suffer from dramatic lighting variations and textureless scenarios. In
this paper, we incorporate sparse but accurate depth measurements obtained from
lidars to overcome the limitation of visual methods. To this end, we design a
self-supervised visual-lidar odometry (Self-VLO) framework. It takes both
monocular images and sparse depth maps projected from 3D lidar points as input,
and produces pose and depth estimations in an end-to-end learning manner,
without using any ground truth labels. To effectively fuse two modalities, we
design a two-pathway encoder to extract features from visual and depth images
and fuse the encoded features with those in decoders at multiple scales by our
fusion module. We also adopt a siamese architecture and design an adaptively
weighted flip consistency loss to facilitate the self-supervised learning of
our VLO. Experiments on the KITTI odometry benchmark show that the proposed
approach outperforms all self-supervised visual or lidar odometries. It also
performs better than fully supervised VOs, demonstrating the power of fusion.
- Abstract(参考訳): 学習に基づくほとんどの手法は、劇的な照明のバリエーションやテクスチャのないシナリオに苦しむ視覚センサを用いてエゴモーションを推定する。
本稿では,ライダーから得られた疎度で正確な深度測定を取り入れ,視覚的手法の限界を克服する。
そこで我々は,自己教師型視覚ライダー・オドメトリー(Self-VLO)フレームワークを設計する。
3次元ライダーポイントから投影された単眼画像とスパース深度マップの両方を入力として、基底の真理ラベルを使わずに、エンドツーエンドの学習方法でポーズと深度推定を生成する。
2つのモードを効果的に融合するために,視覚および奥行き画像から特徴を抽出し,その特徴を複数のスケールでデコーダに融合する2経路エンコーダを設計した。
また,適応的に重み付けされたフリップ一貫性損失を設計することで,VLOの自己教師型学習を容易にする。
kitti odometryベンチマークの実験では、提案手法が全ての自己教師付き視覚またはライダーオドメトリーよりも優れていることが示されている。
また、完全に監督されたvosよりもパフォーマンスが良く、核融合の威力を示す。
関連論文リスト
- RA-Depth: Resolution Adaptive Self-Supervised Monocular Depth Estimation [27.679479140943503]
本研究では,シーン深さのスケール不変性を学習し,自己教師付き単眼深度推定法(RA-Depth)を提案する。
RA-Depthは最先端の性能を達成し、解像度適応の優れた能力を示す。
論文 参考訳(メタデータ) (2022-07-25T08:49:59Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Multi-Frame Self-Supervised Depth with Transformers [33.00363651105475]
本稿では,コストボリューム生成のためのトランスフォーマーアーキテクチャを提案する。
深度分布型エピポーラサンプリングを用いて、マッチング候補を選択する。
私たちは、一連の自己と横断的なレイヤを通じて予測を洗練します。
論文 参考訳(メタデータ) (2022-04-15T19:04:57Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Self-Supervised Monocular Depth and Ego-Motion Estimation in Endoscopy:
Appearance Flow to the Rescue [38.168759071532676]
単眼ビデオから深度とエゴモーションを計算するために,自己教師付き学習技術が応用されている。
本研究では,明るさの不整合問題に対処するため,外観フローと呼ばれる新しい概念を導入する。
我々は,単眼深度と自我運動を同時に推定する統合的な自己監督フレームワークを構築した。
論文 参考訳(メタデータ) (2021-12-15T13:51:10Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction [27.750031877854717]
本稿では,セマンティック情報を活用して光度損失の限界を克服するSAFENetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
論文 参考訳(メタデータ) (2020-10-06T17:22:25Z) - Towards Better Generalization: Joint Depth-Pose Learning without PoseNet [36.414471128890284]
自己教師型共同深層学習におけるスケール不整合の本質的問題に対処する。
既存の手法の多くは、全ての入力サンプルで一貫した深さとポーズを学習できると仮定している。
本稿では,ネットワーク推定からスケールを明示的に切り離す新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-04-03T00:28:09Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。