論文の概要: Full Surround Monodepth from Multiple Cameras
- arxiv url: http://arxiv.org/abs/2104.00152v1
- Date: Wed, 31 Mar 2021 22:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:43:53.505916
- Title: Full Surround Monodepth from Multiple Cameras
- Title(参考訳): 複数のカメラからの完全なサラウンドモノディフ
- Authors: Vitor Guizilini, Igor Vasiljevic, Rares Ambrus, Greg Shakhnarovich,
Adrien Gaidon
- Abstract要約: 自己監督単眼深度と自我運動推定を大型フォトベースラインマルチカメラリグに拡張します。
私たちは、典型的なLiDARスキャナーと同じ全周360度の視野をカバーする、高密度で一貫性のあるスケールアウェアポイントクラウドを生成する単一のネットワークを学びます。
- 参考スコア(独自算出の注目度): 31.145598985137468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised monocular depth and ego-motion estimation is a promising
approach to replace or supplement expensive depth sensors such as LiDAR for
robotics applications like autonomous driving. However, most research in this
area focuses on a single monocular camera or stereo pairs that cover only a
fraction of the scene around the vehicle. In this work, we extend monocular
self-supervised depth and ego-motion estimation to large-baseline multi-camera
rigs. Using generalized spatio-temporal contexts, pose consistency constraints,
and carefully designed photometric loss masking, we learn a single network
generating dense, consistent, and scale-aware point clouds that cover the same
full surround 360 degree field of view as a typical LiDAR scanner. We also
propose a new scale-consistent evaluation metric more suitable to multi-camera
settings. Experiments on two challenging benchmarks illustrate the benefits of
our approach over strong baselines.
- Abstract(参考訳): 自律運転のようなロボティクスアプリケーションにLiDARのような高価な深度センサーを置き換えたり補ったりするための、自己監督された単眼深度とエゴモーション推定は有望なアプローチである。
しかし、この分野のほとんどの研究は、車両の周囲のシーンのごく一部をカバーする単一の単眼カメラまたはステレオペアに焦点を当てている。
本研究では,モノクラー自己監督深度とエゴモーション推定を大規模マルチカメラリグに拡張する。
一般化された時空間コンテキストを用いて、一貫性の制約に対処し、慎重に設計された測光損失マスキングを用いて、一般的なLiDARスキャナと同様の周囲360度視野をカバーする高密度で一貫したスケール対応の点雲を生成する単一ネットワークを学習する。
また,マルチカメラ設定に適した新しいスケール一貫性評価指標を提案する。
2つの挑戦的なベンチマークの実験は、強力なベースラインに対する我々のアプローチの利点を示しています。
関連論文リスト
- SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Robust Self-Supervised Extrinsic Self-Calibration [25.727912226753247]
マルチカメラによるビデオからの単眼深度推定は、環境を判断する上で有望な方法である。
本稿では,自己教師型単眼深度と自我運動学習の原理を基礎として,外因性キャリブレーションの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-08-04T06:20:20Z) - BiFuse++: Self-supervised and Efficient Bi-projection Fusion for 360
Depth Estimation [59.11106101006008]
両射影融合と自己学習シナリオの組み合わせを検討するために,BiFuse++を提案する。
そこで我々は,BiFuseの性能向上のために,新たな融合モジュールとコントラスト対応測光損失を提案する。
論文 参考訳(メタデータ) (2022-09-07T06:24:21Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - SGM3D: Stereo Guided Monocular 3D Object Detection [62.11858392862551]
SGM3Dと呼ばれるステレオ誘導単分子物体検出ネットワークを提案する。
ステレオ画像から抽出したロバストな3次元特徴を利用して、モノクル画像から得られた特徴を強化する。
本手法は,余分な計算コストを伴わずに性能を向上させるために,他の多くの単分子的手法に統合することができる。
論文 参考訳(メタデータ) (2021-12-03T13:57:14Z) - LiDARTouch: Monocular metric depth estimation with a few-beam LiDAR [40.98198236276633]
視覚に基づく深度推定は、自律システムにおいて重要な特徴である。
このような単分子配置では、1つまたは複数の高価なLiDARから追加の入力で濃密な深さが得られる。
本稿では,単眼カメラと軽量LiDARを組み合わせることで,距離深度を高密度に推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T12:06:31Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Monocular Depth Estimation with Self-supervised Instance Adaptation [138.0231868286184]
ロボット工学の応用では、ロボットの動作に応じて、シーンの複数のビューが利用可能であるかもしれないし、利用できないかもしれない。
本稿では,市販の自己監督型単分子深度再構成システムをテスト時に複数の画像に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-04-13T08:32:03Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。