論文の概要: RoadBEV: Road Surface Reconstruction in Bird's Eye View
- arxiv url: http://arxiv.org/abs/2404.06605v1
- Date: Tue, 9 Apr 2024 20:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 16:08:54.319165
- Title: RoadBEV: Road Surface Reconstruction in Bird's Eye View
- Title(参考訳): RoadBEV:鳥の視線で道路表面を再構築する
- Authors: Tong Zhao, Lei Yang, Yichen Xie, Mingyu Ding, Masayoshi Tomizuka, Yintao Wei,
- Abstract要約: 路面条件、特に幾何学的プロファイルは、自動運転車の走行性能に大きな影響を及ぼす。
近年のBird's-Eye-View (BEV) の認識技術は、より信頼性と正確な再構築の可能性を秘めている。
本稿では,BEVにおける道路高架化モデルとして,RoadBEV-monoとRoadBEV-stereoの2つのモデルを提案する。
- 参考スコア(独自算出の注目度): 55.0558717607946
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Road surface conditions, especially geometry profiles, enormously affect driving performance of autonomous vehicles. Vision-based online road reconstruction promisingly captures road information in advance. Existing solutions like monocular depth estimation and stereo matching suffer from modest performance. The recent technique of Bird's-Eye-View (BEV) perception provides immense potential to more reliable and accurate reconstruction. This paper uniformly proposes two simple yet effective models for road elevation reconstruction in BEV named RoadBEV-mono and RoadBEV-stereo, which estimate road elevation with monocular and stereo images, respectively. The former directly fits elevation values based on voxel features queried from image view, while the latter efficiently recognizes road elevation patterns based on BEV volume representing discrepancy between left and right voxel features. Insightful analyses reveal their consistence and difference with perspective view. Experiments on real-world dataset verify the models' effectiveness and superiority. Elevation errors of RoadBEV-mono and RoadBEV-stereo achieve 1.83cm and 0.56cm, respectively. The estimation performance improves by 50\% in BEV based on monocular image. Our models are promising for practical applications, providing valuable references for vision-based BEV perception in autonomous driving. The code is released at https://github.com/ztsrxh/RoadBEV.
- Abstract(参考訳): 路面条件、特に幾何学的プロファイルは、自動運転車の走行性能に大きな影響を及ぼす。
視覚に基づくオンライン道路再建は,道路情報を事前に収集する。
モノクル深度推定やステレオマッチングといった既存のソリューションは、控えめなパフォーマンスに悩まされている。
最近のバードアイビュー(Bird's-Eye-View、BEV)の認識技術は、より信頼性と正確な再構築の可能性を秘めている。
本稿では, 単眼画像とステレオ画像で道路標高を推定する, RoadBEV-mono と RoadBEV-stereo の2つの簡易かつ効果的な道路標高復元モデルを提案する。
前者はイメージビューから検索したボクセル特徴に基づく標高値と直接適合する一方、後者は左右のボクセル特徴の相違を示すBEVボリュームに基づく道路標高パターンを効率的に認識する。
洞察に富んだ分析は、その構成と視点との相違を明らかにする。
実世界のデータセットの実験は、モデルの有効性と優越性を検証します。
RoadBEVモノとRoadBEVステレオの標高誤差はそれぞれ1.83cmと0.56cmである。
単眼画像に基づくBEVでは, 推定性能が50%向上した。
我々のモデルは実用的な応用に期待でき、自律運転における視覚に基づくBEVの認識に貴重な基準を提供する。
コードはhttps://github.com/ztsrxh/RoadBEVで公開されている。
関連論文リスト
- VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - RopeBEV: A Multi-Camera Roadside Perception Network in Bird's-Eye-View [3.165441652093544]
本稿では,道路側シナリオに対するマルチカメラのBEV知覚における重要な課題を,車両側と比較して体系的に分析する。
RopeBEVは、多様なカメラポーズによるトレーニングバランスの問題に対処するために、BEVの拡張を導入している。
提案手法は,実世界の道路データセットであるRoScenesの1位にランクインする。
論文 参考訳(メタデータ) (2024-09-18T05:16:34Z) - Robust Bird's Eye View Segmentation by Adapting DINOv2 [3.236198583140341]
低ランク適応(LoRA)を用いた視覚基礎モデルDINOv2をBEV推定に適用する。
我々の実験は、様々な汚職下でのBEV知覚の堅牢性を高めることを示した。
また,適応表現の有効性を,学習可能なパラメータの少ないこと,学習中の収束の高速化の観点から示す。
論文 参考訳(メタデータ) (2024-09-16T12:23:35Z) - Towards Efficient 3D Object Detection in Bird's-Eye-View Space for Autonomous Driving: A Convolutional-Only Approach [13.513005108086006]
BEVENetと呼ばれるBEVベースの効率的な3D検出フレームワークを提案する。
BEVENetは、NuScenesチャレンジに対する現代の最先端(SOTA)アプローチよりも3$times$高速である。
実験の結果,BEVENetは現代の最先端(SOTA)アプローチよりも3$times$高速であることがわかった。
論文 参考訳(メタデータ) (2023-12-01T14:52:59Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Fast-BEV: Towards Real-time On-vehicle Bird's-Eye View Perception [43.080075390854205]
純粋なカメラベースのBird's-Eye-View(BEV)は、高価なLidarセンサーを取り除き、経済的自律運転のための実現可能なソリューションとなる。
本稿では,車載チップ上でリアルタイムなBEV認識を実現する,Fast-BEVと呼ばれるシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-19T03:58:48Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization [5.668124846154997]
S-BEV(Semantic Bird's Eye View)シグネチャは、ビジョンベースの車両再ローカリゼーションのための軽量、天候および照明不変性について説明します。
論文 参考訳(メタデータ) (2021-01-23T19:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。