論文の概要: Camera-Only Bird's Eye View Perception: A Neural Approach to LiDAR-Free Environmental Mapping for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2505.06113v1
- Date: Fri, 09 May 2025 15:13:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.308461
- Title: Camera-Only Bird's Eye View Perception: A Neural Approach to LiDAR-Free Environmental Mapping for Autonomous Vehicles
- Title(参考訳): カメラオンリーバードの視線知覚:自律走行車におけるLiDARフリー環境マッピングへのニューラルアプローチ
- Authors: Anupkumar Bochare,
- Abstract要約: 本稿では,Lft-Splat-Shootアーキテクチャを拡張して,Bird's Eye View (BEV)マップを生成するカメラのみの認識フレームワークを提案する。
本手法は, YOLOv11に基づく物体検出とDepthAnythingV2単眼深度推定とを組み合わせて, 総合的な360度映像理解を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicle perception systems have traditionally relied on costly LiDAR sensors to generate precise environmental representations. In this paper, we propose a camera-only perception framework that produces Bird's Eye View (BEV) maps by extending the Lift-Splat-Shoot architecture. Our method combines YOLOv11-based object detection with DepthAnythingV2 monocular depth estimation across multi-camera inputs to achieve comprehensive 360-degree scene understanding. We evaluate our approach on the OpenLane-V2 and NuScenes datasets, achieving up to 85% road segmentation accuracy and 85-90% vehicle detection rates when compared against LiDAR ground truth, with average positional errors limited to 1.2 meters. These results highlight the potential of deep learning to extract rich spatial information using only camera inputs, enabling cost-efficient autonomous navigation without sacrificing accuracy.
- Abstract(参考訳): 自動運転車の認識システムは伝統的に、正確な環境表現を生成するために高価なLiDARセンサーに依存してきた。
本稿では,Lft-Splat-Shootアーキテクチャを拡張したBird's Eye View (BEV)マップを生成するカメラのみの認識フレームワークを提案する。
本手法は, YOLOv11に基づく物体検出とDepthAnythingV2単眼深度推定とを組み合わせて, 総合的な360度映像理解を実現する。
我々は,OpenLane-V2 と NuScenes のデータセットに対するアプローチを評価し,LiDAR の地上真実と比較した場合,最大 85% の道路セグメンテーション精度と 85-90% の車両検出率を実現し,平均位置誤差を 1.2 m に制限した。
これらの結果は、カメラ入力のみを用いて、深層学習が豊かな空間情報を抽出する可能性を強調し、精度を犠牲にすることなく、コスト効率の高い自律ナビゲーションを可能にする。
関連論文リスト
- RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは、nuScenesデータセット上で64.9% mAPと70.2%の優れた結果を得る。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - Vision-Driven 2D Supervised Fine-Tuning Framework for Bird's Eye View Perception [20.875243604623723]
視覚的2次元意味認識に基づくBEV知覚ネットワークの微調整手法を提案する。
2次元認識技術の成熟と発展を考えると,この手法は低コストなLiDAR基底真理への依存を著しく低減する。
論文 参考訳(メタデータ) (2024-09-09T17:40:30Z) - RoadRunner -- Learning Traversability Estimation for Autonomous Off-road Driving [13.101416329887755]
我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T16:47:54Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Real-time Full-stack Traffic Scene Perception for Autonomous Driving
with Roadside Cameras [20.527834125706526]
道路側カメラを用いた交通シーン認識のための新しい枠組みを提案する。
提案フレームワークは,物体検出,物体位置推定,物体追跡,マルチカメラ情報融合など,道路面の認識をフルスタックでカバーする。
当社のフレームワークはエルズワース・Rd.と米国ミズーリ州アンアーバー州にある2車線のラウンドアラウンドで展開されており,リアルタイム交通流モニタリングと高精度車両軌道抽出を実現している。
論文 参考訳(メタデータ) (2022-06-20T13:33:52Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Ego-motion and Surrounding Vehicle State Estimation Using a Monocular
Camera [11.29865843123467]
単眼カメラを用いて,エゴモーションと周囲の車両状態を推定する新しい機械学習手法を提案する。
提案手法は3つのディープニューラルネットワークを組み合わせて,画像列から3次元車両境界ボックス,深度,光学的流れを推定する。
論文 参考訳(メタデータ) (2020-05-04T16:41:38Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。