論文の概要: BEVScope: Enhancing Self-Supervised Depth Estimation Leveraging
Bird's-Eye-View in Dynamic Scenarios
- arxiv url: http://arxiv.org/abs/2306.11598v1
- Date: Tue, 20 Jun 2023 15:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 13:45:19.610035
- Title: BEVScope: Enhancing Self-Supervised Depth Estimation Leveraging
Bird's-Eye-View in Dynamic Scenarios
- Title(参考訳): BEVScope:動的シナリオにおける鳥のEye-Viewを活用する自己監督深度推定の強化
- Authors: Yucheng Mao, Ruowen Zhao, Tianbao Zhang and Hang Zhao
- Abstract要約: 現在の自己教師型深度推定法にはいくつかの制限がある。
本稿では,自己教師型深度推定手法であるBEVScopeを提案する。
本研究では,移動物体に付随する複雑性を緩和する適応的損失関数を提案する。
- 参考スコア(独自算出の注目度): 12.079195812249747
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Depth estimation is a cornerstone of perception in autonomous driving and
robotic systems. The considerable cost and relatively sparse data acquisition
of LiDAR systems have led to the exploration of cost-effective alternatives,
notably, self-supervised depth estimation. Nevertheless, current
self-supervised depth estimation methods grapple with several limitations: (1)
the failure to adequately leverage informative multi-camera views. (2) the
limited capacity to handle dynamic objects effectively. To address these
challenges, we present BEVScope, an innovative approach to self-supervised
depth estimation that harnesses Bird's-Eye-View (BEV) features. Concurrently,
we propose an adaptive loss function, specifically designed to mitigate the
complexities associated with moving objects. Empirical evaluations conducted on
the Nuscenes dataset validate our approach, demonstrating competitive
performance. Code will be released at https://github.com/myc634/BEVScope.
- Abstract(参考訳): 深度推定は、自動運転とロボットシステムにおける知覚の基礎である。
LiDARシステムのかなりのコストと比較的少ないデータ取得により、コスト効率の良い代替案、特に自己監督深度推定の探索につながった。
とはいえ、現在の自己監督型深度推定手法は、(1)情報の多カメラビューを適切に活用できないこと。
(2)動的オブジェクトを効果的に扱う能力の制限。
これらの課題に対処するために,我々は,Bird's-Eye-View(BEV)機能を活用した自己教師付き深度推定の革新的なアプローチであるBEVScopeを提案する。
同時に,移動物体に付随する複雑性を緩和する適応的損失関数を提案する。
nuscenesデータセットで行った経験的評価は、我々のアプローチを検証し、競争力を示す。
コードはhttps://github.com/myc634/bevscopeでリリースされる。
関連論文リスト
- MGDepth: Motion-Guided Cost Volume For Self-Supervised Monocular Depth
In Dynamic Scenarios [47.33082977365344]
MGDepthは、動的オブジェクトと静的背景の両方の正確な深さ推定を実現するために、モーションガイド付きコストボリューム深さネットである。
MGDepthは、KITTI-2015データセット上での自己教師付き単分子深度推定において、ルート平均二乗誤差を約7%削減する。
論文 参考訳(メタデータ) (2023-12-23T14:36:27Z) - OccNeRF: Self-Supervised Multi-Camera Occupancy Prediction with Neural
Radiance Fields [80.35807140179736]
自己監督型マルチカメラ占有率予測のためのOccNeRF法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成する。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - EC-Depth: Exploring the consistency of self-supervised monocular depth
estimation under challenging scenes [39.853870388888986]
EC-Depthは、堅牢な深さ推定を実現するための、新しい自己教師型2段階トレーニングフレームワークである。
我々のモデルは、標準シナリオと挑戦シナリオの両方において正確で一貫した深度予測を実現する。
提案手法は, KITTI, KITTI-C および DrivingStereo ベンチマークにおける既存の最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2023-10-12T05:34:45Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Toward Hierarchical Self-Supervised Monocular Absolute Depth Estimation
for Autonomous Driving Applications [12.931635568843381]
現在の手法はいまだに不正確な物体レベルの深さ推定と不確実なスケールファクターに悩まされている。
DNetを導入して,これら2つの問題を解決することを提案する。
筆者らの貢献は2つある:a) 自律走行シナリオに特化して、より優れたオブジェクトレベルの深度推定を提供するために、新しい密結合予測層を提案し、b) 自律走行に要する厳密な幾何的制約(DGC)を導入し、自動運転車に余分なコストをかけずに正確なスケール係数を復元できるようにした。
論文 参考訳(メタデータ) (2020-04-12T07:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。