論文の概要: Real-time Full-stack Traffic Scene Perception for Autonomous Driving
with Roadside Cameras
- arxiv url: http://arxiv.org/abs/2206.09770v1
- Date: Mon, 20 Jun 2022 13:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 09:54:10.848772
- Title: Real-time Full-stack Traffic Scene Perception for Autonomous Driving
with Roadside Cameras
- Title(参考訳): 道路カメラを用いた自動運転のためのリアルタイムフルスタックトラヒックシーン知覚
- Authors: Zhengxia Zou, Rusheng Zhang, Shengyin Shen, Gaurav Pandey, Punarjay
Chakravarty, Armin Parchami, Henry X. Liu
- Abstract要約: 道路側カメラを用いた交通シーン認識のための新しい枠組みを提案する。
提案フレームワークは,物体検出,物体位置推定,物体追跡,マルチカメラ情報融合など,道路面の認識をフルスタックでカバーする。
当社のフレームワークはエルズワース・Rd.と米国ミズーリ州アンアーバー州にある2車線のラウンドアラウンドで展開されており,リアルタイム交通流モニタリングと高精度車両軌道抽出を実現している。
- 参考スコア(独自算出の注目度): 20.527834125706526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel and pragmatic framework for traffic scene perception with
roadside cameras. The proposed framework covers a full-stack of roadside
perception pipeline for infrastructure-assisted autonomous driving, including
object detection, object localization, object tracking, and multi-camera
information fusion. Unlike previous vision-based perception frameworks rely
upon depth offset or 3D annotation at training, we adopt a modular decoupling
design and introduce a landmark-based 3D localization method, where the
detection and localization can be well decoupled so that the model can be
easily trained based on only 2D annotations. The proposed framework applies to
either optical or thermal cameras with pinhole or fish-eye lenses. Our
framework is deployed at a two-lane roundabout located at Ellsworth Rd. and
State St., Ann Arbor, MI, USA, providing 7x24 real-time traffic flow monitoring
and high-precision vehicle trajectory extraction. The whole system runs
efficiently on a low-power edge computing device with all-component end-to-end
delay of less than 20ms.
- Abstract(参考訳): 道路カメラを用いた交通シーン知覚のための新しい実用的枠組みを提案する。
提案フレームワークは, 物体検出, 物体位置推定, 物体追跡, マルチカメラ情報融合を含む, インフラストラクチャ支援自動運転のための道路側認識パイプラインのフルスタックをカバーする。
従来の視覚ベースの認識フレームワークは、トレーニング時に深度オフセットや3Dアノテーションに依存していたが、モジュラーデカップリング設計を採用し、ランドマークベースの3Dローカライゼーション手法を導入し、検出とローカライゼーションをうまく分離し、モデルが2Dアノテーションのみに基づいて容易にトレーニングできるようにした。
提案フレームワークは、ピンホールまたは魚眼レンズを備えた光学カメラまたは熱カメラに適用される。
私たちのフレームワークはEllsworth Rd.とState St.にある2車線のラウンドアラウンドでデプロイされています。
ann arbor, mi, usa, 7x24リアルタイム交通流モニタリングと高精度車両軌道抽出を提供する。
システムは、全コンポーネントのエンドツーエンド遅延が20ミリ秒未満の低消費電力エッジコンピューティングデバイス上で効率よく動作する。
関連論文リスト
- MOSE: Boosting Vision-based Roadside 3D Object Detection with Scene Cues [12.508548561872553]
Scene cuEsを用いたMonocular 3Dオブジェクト検出のための新しいフレームワークMOSEを提案する。
シーンキューバンクは、同じシーンの複数のフレームからシーンキューを集約するように設計されている。
トランスベースのデコーダは、集約されたシーンキューと3Dオブジェクト位置のための3D位置埋め込みをリフトする。
論文 参考訳(メタデータ) (2024-04-08T08:11:56Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - The Interstate-24 3D Dataset: a new benchmark for 3D multi-camera
vehicle tracking [4.799822253865053]
本研究は,道路交通カメラの重なり合う都市州間高速道路に沿って記録された新しい映像データセットを提示し,交通監視状況下でのマルチカメラ3Dオブジェクト追跡を可能にする。
データは、少なくとも16台のカメラのビデオを含む3つのシーンから解放され、合計で57分である。
877,000個の3Dバウンディングボックスと対応するオブジェクトトラックレットは、各カメラの視野に対して完全に正確に注釈付けされ、各シーンごとに空間的かつ時間的に連続した車両軌跡セットに結合される。
論文 参考訳(メタデータ) (2023-08-28T18:43:33Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - Monocular Vision based Crowdsourced 3D Traffic Sign Positioning with
Unknown Camera Intrinsics and Distortion Coefficients [11.38332845467423]
カメラの焦点距離,主点,歪み係数を事前に知ることなく,3次元信号位置の計算手法を実証する。
我々はそれぞれ0.26mと1.38mの平均的な単行程と絶対的な位置決め精度を達成した。
論文 参考訳(メタデータ) (2020-07-09T07:03:17Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - Ego-motion and Surrounding Vehicle State Estimation Using a Monocular
Camera [11.29865843123467]
単眼カメラを用いて,エゴモーションと周囲の車両状態を推定する新しい機械学習手法を提案する。
提案手法は3つのディープニューラルネットワークを組み合わせて,画像列から3次元車両境界ボックス,深度,光学的流れを推定する。
論文 参考訳(メタデータ) (2020-05-04T16:41:38Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。