論文の概要: Semi-SD: Semi-Supervised Metric Depth Estimation via Surrounding Cameras for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2503.19713v1
- Date: Tue, 25 Mar 2025 14:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:54:02.915926
- Title: Semi-SD: Semi-Supervised Metric Depth Estimation via Surrounding Cameras for Autonomous Driving
- Title(参考訳): 半SD: 周囲カメラによる半監督距離推定による自律走行
- Authors: Yusen Xie, Zhengmin Huang, Shaojie Shen, Jun Ma,
- Abstract要約: Semi-SDは、自動運転における周囲のカメラ機器に適した新しいメートル法深度推定フレームワークである。
本稿では,視覚的融合機能を構築するために,空間空間-時間-意味融合モジュールを提案する。
DDADおよびnuScenesデータセットを用いてアルゴリズムの評価を行い,本手法が最先端の性能を実現することを示す。
- 参考スコア(独自算出の注目度): 20.19617659712535
- License:
- Abstract: In this paper, we introduce Semi-SD, a novel metric depth estimation framework tailored for surrounding cameras equipment in autonomous driving. In this work, the input data consists of adjacent surrounding frames and camera parameters. We propose a unified spatial-temporal-semantic fusion module to construct the visual fused features. Cross-attention components for surrounding cameras and adjacent frames are utilized to focus on metric scale information refinement and temporal feature matching. Building on this, we propose a pose estimation framework using surrounding cameras, their corresponding estimated depths, and extrinsic parameters, which effectively address the scale ambiguity in multi-camera setups. Moreover, semantic world model and monocular depth estimation world model are integrated to supervised the depth estimation, which improve the quality of depth estimation. We evaluate our algorithm on DDAD and nuScenes datasets, and the results demonstrate that our method achieves state-of-the-art performance in terms of surrounding camera based depth estimation quality. The source code will be available on https://github.com/xieyuser/Semi-SD.
- Abstract(参考訳): 本稿では,自動運転における周囲カメラ機器に適した新しい距離深度推定フレームワークであるSemi-SDを紹介する。
この研究では、入力データは隣接する周囲のフレームとカメラパラメータから構成される。
本稿では,視覚的融合機能を構築するために,空間空間-時間-意味融合モジュールを提案する。
周囲のカメラと隣接するフレームのためのクロスアテンションコンポーネントを用いて、計量スケール情報の改良と時間的特徴マッチングに焦点をあてる。
そこで本研究では, 周辺カメラ, 対応する推定深度, 外部パラメータを用いたポーズ推定手法を提案し, マルチカメラ装置のスケールのあいまいさを効果的に解決する。
さらに、意味的世界モデルと単眼的深度推定世界モデルを統合し、深度推定を監督し、深度推定の質を向上させる。
DDAD と nuScenes のデータセットを用いてアルゴリズムの評価を行い,本手法が周辺カメラの深度推定精度において最先端の性能を実現することを示す。
ソースコードはhttps://github.com/xieyuser/Semi-SDで入手できる。
関連論文リスト
- GVDepth: Zero-Shot Monocular Depth Estimation for Ground Vehicles based on Probabilistic Cue Fusion [7.588468985212172]
計量単分子深度推定の一般化は、その不適切な性質のために重要な課題となる。
本稿では,様々なカメラ設定の整合性を維持する新しい標準表現を提案する。
また,物体の大きさや垂直位置の手がかりによって推定される深度を適応的かつ確率的に融合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-08T22:04:34Z) - KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - GenDepth: Generalizing Monocular Depth Estimation for Arbitrary Camera
Parameters via Ground Plane Embedding [8.289857214449372]
GenDepthは任意の車載カメラの設定に対してメートル法深度推定を行うことができる新しいモデルである。
地平面深度としてのカメラパラメータの新たな埋め込みを提案し,これらの埋め込みを対角領域アライメントと統合するアーキテクチャを提案する。
我々はGenDepthをいくつかの自律走行データセットで検証し、異なる車載カメラシステムに対する最先端の一般化能力を実証した。
論文 参考訳(メタデータ) (2023-12-10T22:28:34Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Uncertainty Guided Depth Fusion for Spike Camera [49.41822923588663]
スパイクカメラのための単分子およびステレオ深度推定ネットワークの予測を融合させる新しい不確かさ誘導深度融合(UGDF)フレームワークを提案する。
我々のフレームワークは、ステレオスパイク深さ推定がより近い範囲でより良い結果をもたらすという事実に動機づけられている。
従来のカメラ深度推定よりもスパイク深度推定の利点を示すため、我々はCitySpike20Kというスパイク深度データセットに貢献する。
論文 参考訳(メタデータ) (2022-08-26T13:04:01Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Multi-Camera Sensor Fusion for Visual Odometry using Deep Uncertainty
Estimation [34.8860186009308]
複数の車載カメラからの姿勢推定と不確実性推定の両方を用いて車両の動きを推定する深層センサ融合フレームワークを提案する。
我々は、利用可能な大規模自動運転車データセットnuScenesに対する我々のアプローチを評価した。
論文 参考訳(メタデータ) (2021-12-23T19:44:45Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。