論文の概要: SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras
- arxiv url: http://arxiv.org/abs/2309.01324v2
- Date: Wed, 13 Mar 2024 02:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 18:27:41.987846
- Title: SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras
- Title(参考訳): SKoPe3D:3Dから車両のキーポイント認識のための合成データセット
交通監視カメラ
- Authors: Himanshu Pahadia, Duo Lu, Bharatesh Chakravarthi, Yezhou Yang
- Abstract要約: 道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
- 参考スコア(独自算出の注目度): 26.457695296042903
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Intelligent transportation systems (ITS) have revolutionized modern road
infrastructure, providing essential functionalities such as traffic monitoring,
road safety assessment, congestion reduction, and law enforcement. Effective
vehicle detection and accurate vehicle pose estimation are crucial for ITS,
particularly using monocular cameras installed on the road infrastructure. One
fundamental challenge in vision-based vehicle monitoring is keypoint detection,
which involves identifying and localizing specific points on vehicles (such as
headlights, wheels, taillights, etc.). However, this task is complicated by
vehicle model and shape variations, occlusion, weather, and lighting
conditions. Furthermore, existing traffic perception datasets for keypoint
detection predominantly focus on frontal views from ego vehicle-mounted
sensors, limiting their usability in traffic monitoring. To address these
issues, we propose SKoPe3D, a unique synthetic vehicle keypoint dataset
generated using the CARLA simulator from a roadside perspective. This
comprehensive dataset includes generated images with bounding boxes, tracking
IDs, and 33 keypoints for each vehicle. Spanning over 25k images across 28
scenes, SKoPe3D contains over 150k vehicle instances and 4.9 million keypoints.
To demonstrate its utility, we trained a keypoint R-CNN model on our dataset as
a baseline and conducted a thorough evaluation. Our experiments highlight the
dataset's applicability and the potential for knowledge transfer between
synthetic and real-world data. By leveraging the SKoPe3D dataset, researchers
and practitioners can overcome the limitations of existing datasets, enabling
advancements in vehicle keypoint detection for ITS.
- Abstract(参考訳): インテリジェント交通システム(ITS)は、交通監視、道路安全評価、渋滞低減、法執行などの重要な機能を提供している。
効果的な車両検出と正確な車両ポーズ推定はITSにとって重要であり、特に道路インフラに設置された単眼カメラを使用する。
視覚に基づく車両監視の基本的な課題の1つはキーポイント検出であり、車(ヘッドライト、車輪、テールライトなど)の特定の点を特定し、位置を特定することである。
しかし、この作業は車両モデルと形状のバリエーション、閉塞性、天候、照明条件によって複雑である。
さらに、キーポイント検出のための既存のトラフィック認識データセットは、主にエゴ車に搭載されたセンサーからのフロントビューに焦点を当て、トラフィック監視のユーザビリティを制限している。
これらの問題に対処するために,道路側からCARLAシミュレータを用いて生成されたユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
この包括的なデータセットには、各車両のバウンディングボックス、ID追跡、33のキーポイントを備えた生成イメージが含まれている。
SKoPe3Dは28シーンで25k以上の画像を撮影し、150k以上の車両インスタンスと490万のキーポイントを含んでいる。
その実用性を実証するため、我々のデータセット上のキーポイントR-CNNモデルをベースラインとして訓練し、徹底的な評価を行った。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
SKoPe3Dデータセットを活用することで、研究者と実践者は既存のデータセットの制限を克服し、ITSの車両キーポイント検出の進歩を可能にする。
関連論文リスト
- InScope: A New Real-world 3D Infrastructure-side Collaborative Perception Dataset for Open Traffic Scenarios [13.821143687548494]
本稿では,新しい3次元インフラ側協調認識データセットについて紹介する。
InScopeは303の追跡軌道と187,787個の3D境界ボックスで20日間の捕獲期間をカプセル化している。
論文 参考訳(メタデータ) (2024-07-31T13:11:14Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics [0.0]
本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について考察する。
車両の光検出から恩恵を受けることができる自動運転における3つの重要なタスクが特定される。
データ駆動モデルのトレーニングのための大規模なデータセットの収集と注釈付けの課題にも対処する。
論文 参考訳(メタデータ) (2023-07-26T21:48:14Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Real-Time And Robust 3D Object Detection with Roadside LiDARs [20.10416681832639]
道路沿いのLiDARにおける交通参加者をリアルタイムに検出できる3次元物体検出モデルを設計する。
我々のモデルは既存の3D検出器をベースラインとして使用し、精度を向上させる。
スマートシティのアプリケーションに使用できるLiDARベースの3D検出器に多大な貢献をしています。
論文 参考訳(メタデータ) (2022-07-11T21:33:42Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。