論文の概要: MC-BEVRO: Multi-Camera Bird Eye View Road Occupancy Detection for Traffic Monitoring
- arxiv url: http://arxiv.org/abs/2502.11287v1
- Date: Sun, 16 Feb 2025 22:03:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:10:51.210010
- Title: MC-BEVRO: Multi-Camera Bird Eye View Road Occupancy Detection for Traffic Monitoring
- Title(参考訳): MC-BEVRO:交通監視のためのマルチカメラバードアイビュー道路機能検出
- Authors: Arpitsinh Vaghela, Duo Lu, Aayush Atul Verma, Bharatesh Chakravarthi, Hua Wei, Yezhou Yang,
- Abstract要約: 交通監視のための単一カメラの3次元認識は、閉塞性や視野の制限により大きな課題に直面している。
本稿では,複数の路面カメラを活用した新しいBird's-Eye-Viewロード占有検知フレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.396192711865147
- License:
- Abstract: Single camera 3D perception for traffic monitoring faces significant challenges due to occlusion and limited field of view. Moreover, fusing information from multiple cameras at the image feature level is difficult because of different view angles. Further, the necessity for practical implementation and compatibility with existing traffic infrastructure compounds these challenges. To address these issues, this paper introduces a novel Bird's-Eye-View road occupancy detection framework that leverages multiple roadside cameras to overcome the aforementioned limitations. To facilitate the framework's development and evaluation, a synthetic dataset featuring diverse scenes and varying camera configurations is generated using the CARLA simulator. A late fusion and three early fusion methods were implemented within the proposed framework, with performance further enhanced by integrating backgrounds. Extensive evaluations were conducted to analyze the impact of multi-camera inputs and varying BEV occupancy map sizes on model performance. Additionally, a real-world data collection pipeline was developed to assess the model's ability to generalize to real-world environments. The sim-to-real capabilities of the model were evaluated using zero-shot and few-shot fine-tuning, demonstrating its potential for practical application. This research aims to advance perception systems in traffic monitoring, contributing to improved traffic management, operational efficiency, and road safety.
- Abstract(参考訳): 交通監視のための単一カメラの3次元認識は、閉塞と視野の制限により大きな課題に直面している。
さらに、複数のカメラからの情報を画像特徴レベルで融合させることは、視角が異なるため困難である。
さらに、既存の交通インフラとの実践的実装と互換性の必要性は、これらの課題を複雑にしている。
このような問題に対処するため,本稿では,上記制限を克服するために複数の路面カメラを活用した新しいBird's-Eye-Viewロード占有検知フレームワークを提案する。
フレームワークの開発と評価を容易にするため、CARLAシミュレータを用いて、多様なシーンと様々なカメラ構成を含む合成データセットを生成する。
遅延融合と3つの初期融合手法が提案フレームワーク内に実装され、バックグラウンドの統合により性能がさらに向上した。
マルチカメラ入力と各種BEV占有マップサイズがモデル性能に与える影響を総合評価した。
さらに、実際の環境に一般化するモデルの能力を評価するために、実世界のデータ収集パイプラインが開発された。
このモデルのsim-to-real能力はゼロショットと数ショットのファインチューニングを用いて評価し、実用的応用の可能性を示した。
本研究の目的は,交通監視における認識システムの向上であり,交通管理,運転効率,道路安全の向上に寄与することである。
関連論文リスト
- TopView: Vectorising road users in a bird's eye view from uncalibrated street-level imagery with deep learning [2.7195102129095003]
本研究では、カメラの内在的・外在的パラメータを事前に把握せずに、画像から鳥の視線を推定するための簡単なアプローチを提案する。
このフレームワークは、カメラフィードからライブマップを生成し、都市規模での社会的距離違反を分析するために、いくつかのアプリケーションに適用されている。
論文 参考訳(メタデータ) (2024-12-18T21:55:58Z) - Low-Light Image Enhancement Framework for Improved Object Detection in Fisheye Lens Datasets [4.170227455727819]
本研究は,魚眼レンズカメラを用いた都市交通監視システムの進化的課題について考察する。
フィッシュアイレンズは、1つのフレームで広角と全方位のカバーを提供し、変換性のあるソリューションとなる。
これらの課題に触発された本研究では,ランズフォーマーに基づく画像強調フレームワークとアンサンブル学習技術を組み合わせた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-15T18:32:52Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Multi-Camera Multi-Object Tracking on the Move via Single-Stage Global
Association Approach [23.960847268459293]
この研究は、複数カメラから1つ以上の検出を追跡対象に関連付けるための、新しいシングルステージグローバルアソシエーション追跡手法を導入する。
また,本モデルでは,nuScenes検出課題において,標準的な視覚に基づく3次元物体検出器の検出精度も向上した。
論文 参考訳(メタデータ) (2022-11-17T17:03:24Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Multi-Camera Multiple 3D Object Tracking on the Move for Autonomous
Vehicles [17.12321292167318]
オブジェクトの検出と追跡は、カメラのビューにまたがって一貫した結果を達成するなど、新しい課題に対処するために重要である。
本研究は,既存のトラックレットの位置とリンク検出をトラックレットで予測するために,リンク予測を用いた新たなグローバルアソシエーショングラフモデルを提案する。
本モデルは, nuScenes 検出課題における標準3次元物体検出器の検出精度の向上に有効である。
論文 参考訳(メタデータ) (2022-04-19T22:50:36Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。