論文の概要: Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation
- arxiv url: http://arxiv.org/abs/2210.02009v1
- Date: Wed, 5 Oct 2022 03:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:01:45.270960
- Title: Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation
- Title(参考訳): 連続構造推定によるマルチカメラ協調深さ予測
- Authors: Jialei Xu, Xianming Liu, Yuanchao Bai, Junjun Jiang, Kaixuan Wang,
Xiaozhi Chen, Xiangyang Ji
- Abstract要約: 本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
- 参考スコア(独自算出の注目度): 75.99435808648784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth map estimation from images is an important task in robotic systems.
Existing methods can be categorized into two groups including multi-view stereo
and monocular depth estimation. The former requires cameras to have large
overlapping areas and sufficient baseline between cameras, while the latter
that processes each image independently can hardly guarantee the structure
consistency between cameras. In this paper, we propose a novel multi-camera
collaborative depth prediction method that does not require large overlapping
areas while maintaining structure consistency between cameras. Specifically, we
formulate the depth estimation as a weighted combination of depth basis, in
which the weights are updated iteratively by a refinement network driven by the
proposed consistency loss. During the iterative update, the results of depth
estimation are compared across cameras and the information of overlapping areas
is propagated to the whole depth maps with the help of basis formulation.
Experimental results on DDAD and NuScenes datasets demonstrate the superior
performance of our method.
- Abstract(参考訳): 画像からの深度マップ推定はロボットシステムにおいて重要な課題である。
既存の方法は、多視点ステレオと単眼深度推定を含む2つのグループに分類できる。
前者はカメラの間に大きな重複領域と十分なベースラインを持つことを要求し、後者は各画像を独立して処理し、後者はカメラ間の構造一貫性をほとんど保証しない。
本稿では,カメラ間の構造整合性を維持しつつ,大きな重なり合う領域を必要としないマルチカメラ協調深度予測手法を提案する。
具体的には,提案する一貫性損失による改良ネットワークによって重み付けを反復的に更新する深さ基底の重み付け結合として深さ推定を定式化する。
反復更新では,深度推定の結果をカメラ間で比較し,重なり領域の情報を基本定式化することにより深度マップ全体に伝播する。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
関連論文リスト
- Robust and Flexible Omnidirectional Depth Estimation with Multiple 360° Cameras [8.850391039025077]
我々は、複数の360度カメラの幾何的制約と冗長情報を用いて、頑健で柔軟な全方位深度推定を実現する。
この2つのアルゴリズムは, 土壌パノラマ入力を施した場合でも, 精度よく深度マップを予測し, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-23T07:31:48Z) - GEDepth: Ground Embedding for Monocular Depth Estimation [4.95394574147086]
本稿では,画像からカメラパラメータを分離する新たな接地モジュールを提案する。
地下深度と残留深度を最適に組み合わせるために、地上の注意をモジュール内に設計する。
実験の結果,本手法は一般的なベンチマークで最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-18T17:56:06Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Boosting Monocular Depth Estimation Models to High-Resolution via
Content-Adaptive Multi-Resolution Merging [14.279471205248534]
本研究では,一貫したシーン構造と高周波の詳細が深度推定性能に与える影響を示す。
本稿では,画像全体の深さ推定を改善する二重推定法と,局所的な詳細を付加するパッチ選択法を提案する。
異なる解像度での推定とコンテキストの変化を組み合わせることで、高精細度でマルチメガピクセルの深度マップを作成できることを実証した。
論文 参考訳(メタデータ) (2021-05-28T17:55:15Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。