論文の概要: An Initial Study of Bird's-Eye View Generation for Autonomous Vehicles using Cross-View Transformers
- arxiv url: http://arxiv.org/abs/2508.12520v1
- Date: Sun, 17 Aug 2025 23:05:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.813212
- Title: An Initial Study of Bird's-Eye View Generation for Autonomous Vehicles using Cross-View Transformers
- Title(参考訳): クロスビュー変換器を用いた自律走行車用鳥眼ビュー生成の初期検討
- Authors: Felipe Carlos dos Santos, Eric Aislan Antonelo, Gustavo Claudio Karl Couto,
- Abstract要約: カメライメージを3つのBird's-Eye View (BEV)マップにマップする学習には,CrossView Transformer (CVT) を用いる。
本研究では,見知らぬ町への一般化,異なるカメラ配置の影響,および2つの損失定式化について検討した。
- 参考スコア(独自算出の注目度): 1.4474137122906163
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Bird's-Eye View (BEV) maps provide a structured, top-down abstraction that is crucial for autonomous-driving perception. In this work, we employ Cross-View Transformers (CVT) for learning to map camera images to three BEV's channels - road, lane markings, and planned trajectory - using a realistic simulator for urban driving. Our study examines generalization to unseen towns, the effect of different camera layouts, and two loss formulations (focal and L1). Using training data from only a town, a four-camera CVT trained with the L1 loss delivers the most robust test performance, evaluated in a new town. Overall, our results underscore CVT's promise for mapping camera inputs to reasonably accurate BEV maps.
- Abstract(参考訳): Bird's-Eye View (BEV) マップは、自動運転車の知覚に不可欠な、構造化されたトップダウンの抽象化を提供する。
本研究では,道路,車線標識,計画軌道の3つのBEVチャネルにカメラ画像をマッピングするために,都市走行の現実的なシミュレータを用いたクロスビュートランスフォーマー(CVT)を用いた。
本研究は、未確認の町への一般化、異なるカメラレイアウトの影響、および2つの損失定式化(焦点とL1)について検討する。
L1の損失で訓練された4台のカメラCVTは、町のみからのトレーニングデータを使用して、新しい町で評価された最も堅牢なテスト性能を提供する。
総じて、CVTがカメラ入力を合理的に正確なBEVマップにマッピングするという約束を裏切っている。
関連論文リスト
- RopeBEV: A Multi-Camera Roadside Perception Network in Bird's-Eye-View [3.165441652093544]
本稿では,道路側シナリオに対するマルチカメラのBEV知覚における重要な課題を,車両側と比較して体系的に分析する。
RopeBEVは、多様なカメラポーズによるトレーニングバランスの問題に対処するために、BEVの拡張を導入している。
提案手法は,実世界の道路データセットであるRoScenesの1位にランクインする。
論文 参考訳(メタデータ) (2024-09-18T05:16:34Z) - RoadBEV: Road Surface Reconstruction in Bird's Eye View [55.0558717607946]
道路表面の状態、特に幾何学的プロファイルは、自動運転車の走行性能に大きな影響を与え、視覚に基づくオンライン道路再建は、事前に道路情報を確実に捉えている。
Bird's-Eye-View (BEV) の認識は、より信頼性が高く正確な再構築の可能性を秘めている。
本稿では,BEVにおける道路高架化モデルとして,RoadBEV-monoとRoadBEV-stereoの2つのモデルを提案する。
論文 参考訳(メタデータ) (2024-04-09T20:24:29Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization [5.668124846154997]
S-BEV(Semantic Bird's Eye View)シグネチャは、ビジョンベースの車両再ローカリゼーションのための軽量、天候および照明不変性について説明します。
論文 参考訳(メタデータ) (2021-01-23T19:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。