論文の概要: Versatile Depth Estimator Based on Common Relative Depth Estimation and
Camera-Specific Relative-to-Metric Depth Conversion
- arxiv url: http://arxiv.org/abs/2303.10991v1
- Date: Mon, 20 Mar 2023 10:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 16:05:12.635755
- Title: Versatile Depth Estimator Based on Common Relative Depth Estimation and
Camera-Specific Relative-to-Metric Depth Conversion
- Title(参考訳): 共通相対深度推定とカメラ固有相対距離変換に基づく多用途深度推定器
- Authors: Jinyoung Jun, Jae-Han Lee, and Chang-Su Kim
- Abstract要約: 本稿では,共通相対深度推定器 (CRDE) と多重相対測度変換器 (R2MC) を組み合わせた多目的深度推定器 (VDE) を提案する。
提案されたVDEは、屋内シーンと屋外シーンの両方を含む多様なシーンに対応でき、カメラ当たりのパラメータの増加は1.12%に過ぎなかった。
実験により、VDEは複数のカメラを効果的かつ効率的にサポートし、従来の単一カメラシナリオで最先端の性能を達成できることを示した。
- 参考スコア(独自算出の注目度): 36.36012484044768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A typical monocular depth estimator is trained for a single camera, so its
performance drops severely on images taken with different cameras. To address
this issue, we propose a versatile depth estimator (VDE), composed of a common
relative depth estimator (CRDE) and multiple relative-to-metric converters
(R2MCs). The CRDE extracts relative depth information, and each R2MC converts
the relative information to predict metric depths for a specific camera. The
proposed VDE can cope with diverse scenes, including both indoor and outdoor
scenes, with only a 1.12\% parameter increase per camera. Experimental results
demonstrate that VDE supports multiple cameras effectively and efficiently and
also achieves state-of-the-art performance in the conventional single-camera
scenario.
- Abstract(参考訳): 典型的な単眼深度推定器は単一のカメラ用に訓練されているため、異なるカメラで撮影された画像では性能が著しく低下する。
この問題に対処するために,共通相対深度推定器 (CRDE) と多重相対測度変換器 (R2MC) からなる多目的深度推定器 (VDE) を提案する。
CRDEは相対深度情報を抽出し、各R2MCは相対情報を特定のカメラの計量深度を予測する。
提案したVDEは、屋内シーンと屋外シーンの両方を含む多様なシーンに対応でき、カメラ当たりのパラメータの増加は 1.12 % である。
実験により、VDEは複数のカメラを効果的かつ効率的にサポートし、従来の単一カメラシナリオで最先端の性能を達成できることを示した。
関連論文リスト
- Fixing the Scale and Shift in Monocular Depth For Camera Pose Estimation [47.68705641608316]
本稿では,2つのカメラ間の相対的なポーズを,関連する単眼深度に対応する点対応から推定する新しい枠組みを提案する。
2台の校正カメラ, 2台の未校正カメラ, 2台の未校正カメラ, 2台の未校正カメラ, 3台の未校正カメラ, 3台の非校正カメラ, 3台の非校正カメラの焦点長を比較検討した。
従来の研究と比較すると、我々の解法は2つの大規模な実世界のデータセットに対して最先端の結果が得られる。
論文 参考訳(メタデータ) (2025-01-13T23:13:33Z) - Depth Any Camera: Zero-Shot Metric Depth Estimation from Any Camera [13.459760768067216]
本稿では,強力なゼロショット距離深度推定フレームワークであるDepth Any Camera (DAC)について述べる。
このフレームワークは、新しいアプリケーションで使用される特定のカメラタイプに関係なく、既存の3Dデータをすべて活用できるように設計されている。
DACは最先端のゼロショット距離推定を達成し、複数の魚眼および360度データセットでデルタ-1の精度を最大50%向上させる。
論文 参考訳(メタデータ) (2025-01-05T07:22:40Z) - GVDepth: Zero-Shot Monocular Depth Estimation for Ground Vehicles based on Probabilistic Cue Fusion [7.588468985212172]
計量単分子深度推定の一般化は、その不適切な性質のために重要な課題となる。
本稿では,様々なカメラ設定の整合性を維持する新しい標準表現を提案する。
また,物体の大きさや垂直位置の手がかりによって推定される深度を適応的かつ確率的に融合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-08T22:04:34Z) - SM4Depth: Seamless Monocular Metric Depth Estimation across Multiple Cameras and Scenes by One Model [72.0795843450604]
現在のアプローチでは、さまざまなシーンで一貫した精度を維持する上で、課題に直面している。
これらの手法は、何千万、あるいは数千万のデータからなる広範囲なデータセットに依存している。
本稿では室内と屋外の両方でシームレスに機能するSM$4$Depthについて述べる。
論文 参考訳(メタデータ) (2024-03-13T14:08:25Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。