論文の概要: Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics
- arxiv url: http://arxiv.org/abs/2307.14521v1
- Date: Wed, 26 Jul 2023 21:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 16:29:39.515182
- Title: Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics
- Title(参考訳): 車両照明のパターン:カメラを用いた車両光データセットとメトリクスのキュレーションとアノテーションの複雑さに対処する
- Authors: Ross Greer, Akshay Gopalkrishnan, Maitrayee Keskar, Mohan Trivedi
- Abstract要約: 本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について考察する。
車両の光検出から恩恵を受けることができる自動運転における3つの重要なタスクが特定される。
データ駆動モデルのトレーニングのための大規模なデータセットの収集と注釈付けの課題にも対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the representation of vehicle lights in computer vision
and its implications for various tasks in the field of autonomous driving.
Different specifications for representing vehicle lights, including bounding
boxes, center points, corner points, and segmentation masks, are discussed in
terms of their strengths and weaknesses. Three important tasks in autonomous
driving that can benefit from vehicle light detection are identified: nighttime
vehicle detection, 3D vehicle orientation estimation, and dynamic trajectory
cues. Each task may require a different representation of the light. The
challenges of collecting and annotating large datasets for training data-driven
models are also addressed, leading to introduction of the LISA Vehicle Lights
Dataset and associated Light Visibility Model, which provides light annotations
specifically designed for downstream applications in vehicle detection, intent
and trajectory prediction, and safe path planning. A comparison of existing
vehicle light datasets is provided, highlighting the unique features and
limitations of each dataset. Overall, this paper provides insights into the
representation of vehicle lights and the importance of accurate annotations for
training effective detection models in autonomous driving applications. Our
dataset and model are made available at
https://cvrr.ucsd.edu/vehicle-lights-dataset
- Abstract(参考訳): 本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について述べる。
境界ボックス,センターポイント,コーナーポイント,セグメンテーションマスクなど,車両の光を表現するための異なる仕様について,その強度と弱点の観点から論じる。
車両光検出の恩恵を受ける自動運転における重要な3つのタスクは、夜間車両検出、3次元車両の向き推定、動的軌道探索である。
各タスクは光の異なる表現を必要とすることがある。
LISA Vehicle Lights Datasetと関連するLight Visibility Modelが導入され、車両検出、意図と軌道予測、安全な経路計画において、下流アプリケーション用に特別に設計された光アノテーションが提供される。
既存の車両光データセットの比較が提供され、各データセットのユニークな特徴と制限が強調される。
本論文は、車載照明の表現と、自動運転アプリケーションにおける効果的な検出モデルのトレーニングのための正確なアノテーションの重要性について考察する。
私たちのデータセットとモデルはhttps://cvrr.ucsd.edu/vehicle-lights-datasetで利用可能です。
関連論文リスト
- Accurate Automatic 3D Annotation of Traffic Lights and Signs for Autonomous Driving [0.0]
交通信号や道路標識などの交通管理対象の3D検出は、自動運転車にとって不可欠である。
本稿では,信号機や標識の3次元バウンディングボックスアノテーションを自動生成する手法を提案する。
論文 参考訳(メタデータ) (2024-09-19T09:50:03Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - Robust Detection, Association, and Localization of Vehicle Lights: A
Context-Based Cascaded CNN Approach and Evaluations [0.0]
本稿では、上流車両検出と可視光中心の近似を付与した車両光の検出方法を提案する。
地上の真理角からの平均距離誤差は4.77ピクセルであり、車両の光の約16.33%である。
我々は,このモデルをパイプラインに統合して,完全形状の車両光検出ネットワークを構築することを提案する。
論文 参考訳(メタデータ) (2023-07-27T01:20:47Z) - Robust Traffic Light Detection Using Salience-Sensitive Loss:
Computational Framework and Evaluations [0.3061098887924466]
本稿では,運転者の将来の判断に影響を及ぼす信号として,信号機の定義に焦点をあてた交通信号検出モデルを提案する。
次に、このサリエンス特性を用いて、注釈付きサリエンス特性を持つ米国初のトラヒックライトデータセットであるLAVA Salient Lightsデータセットを構築する。
本研究では,Salience-Sensitive Focal Lossを用いたDeformable DETRオブジェクト検出トランスモデルを訓練し,サリアント信号の高機能化を図る。
論文 参考訳(メタデータ) (2023-05-08T07:22:15Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Real-Time And Robust 3D Object Detection with Roadside LiDARs [20.10416681832639]
道路沿いのLiDARにおける交通参加者をリアルタイムに検出できる3次元物体検出モデルを設計する。
我々のモデルは既存の3D検出器をベースラインとして使用し、精度を向上させる。
スマートシティのアプリケーションに使用できるLiDARベースの3D検出器に多大な貢献をしています。
論文 参考訳(メタデータ) (2022-07-11T21:33:42Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。