論文の概要: Robust Detection, Assocation, and Localization of Vehicle Lights: A
Context-Based Cascaded CNN Approach and Evaluations
- arxiv url: http://arxiv.org/abs/2307.14571v1
- Date: Thu, 27 Jul 2023 01:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 16:09:06.956915
- Title: Robust Detection, Assocation, and Localization of Vehicle Lights: A
Context-Based Cascaded CNN Approach and Evaluations
- Title(参考訳): コンテクストベースカスケードcnnアプローチによる車両照明のロバスト検出、アソシエーション、位置推定と評価
- Authors: Akshay Gopalkrishnan, Ross Greer, Maitrayee Keskar, Mohan Trivedi
- Abstract要約: 本稿では、上流車両検出と可視光中心の近似を付与した車両光の検出方法を提案する。
我々は、車両の光の約17.24%にあたる5.09ピクセルの地上の真理角から平均距離誤差を達成する。
本モデルでは,車体検出と車体光センター検出を併用して,完全形状の車体光検出ネットワークを構築することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle light detection is required for important downstream safe autonomous
driving tasks, such as predicting a vehicle's light state to determine if the
vehicle is making a lane change or turning. Currently, many vehicle light
detectors use single-stage detectors which predict bounding boxes to identify a
vehicle light, in a manner decoupled from vehicle instances. In this paper, we
present a method for detecting a vehicle light given an upstream vehicle
detection and approximation of a visible light's center. Our method predicts
four approximate corners associated with each vehicle light. We experiment with
CNN architectures, data augmentation, and contextual preprocessing methods
designed to reduce surrounding-vehicle confusion. We achieve an average
distance error from the ground truth corner of 5.09 pixels, about 17.24% of the
size of the vehicle light on average. We train and evaluate our model on the
LISA Lights dataset, allowing us to thoroughly evaluate our vehicle light
corner detection model on a large variety of vehicle light shapes and lighting
conditions. We propose that this model can be integrated into a pipeline with
vehicle detection and vehicle light center detection to make a fully-formed
vehicle light detection network, valuable to identifying trajectory-informative
signals in driving scenes.
- Abstract(参考訳): 車両が車線変更や旋回を行っているかどうかを判断するために、車両の軽量状態を予測するなどの重要な下流の安全な自動運転タスクには、車両の光検出が必要である。
現在、多くの車両光検出器は単段検出器を使用して車両光を識別するために境界ボックスを予測している。
本稿では,上流の車両を検知し,可視光の中心を近似した車両光を検出する方法を提案する。
本手法は,各車両の光に付随する四角角を推定する。
我々は周辺車両の混乱を軽減するために設計されたcnnアーキテクチャ、データ拡張およびコンテキスト前処理手法を実験する。
地上の真理角からの平均距離誤差は5.9ピクセルであり、平均で車両の光量の約17.24%である。
我々は、LISA Lightsデータセットでモデルをトレーニングし、評価し、様々な車両の照明形状と照明条件に基づいて車両の光角検出モデルを徹底的に評価する。
本手法は,車体検出と車体光センタ検出を併用したパイプラインに統合し,車体光検出ネットワークを構築することで,運転シーンにおける軌道変化信号の同定に有用である。
関連論文リスト
- Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics [0.0]
本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について考察する。
車両の光検出から恩恵を受けることができる自動運転における3つの重要なタスクが特定される。
データ駆動モデルのトレーニングのための大規模なデータセットの収集と注釈付けの課題にも対処する。
論文 参考訳(メタデータ) (2023-07-26T21:48:14Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Combining Visual Saliency Methods and Sparse Keypoint Annotations to
Providently Detect Vehicles at Night [2.0299248281970956]
視覚的サリエンシとスパースなキーポイントアノテーションに基づいて異なるオブジェクト表現を作成するための、潜在的なサリエンシに基づくアプローチについて検討する。
このアプローチは、異なるオブジェクト表現の自動導出を可能にする。
我々は、実際に見えるようになる前に夜間に車両を検知する問題を研究するための、より強力なツールや方法を提供する。
論文 参考訳(メタデータ) (2022-04-25T09:56:34Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Provident Vehicle Detection at Night: The PVDN Dataset [2.8730465903425877]
夜間の農村環境における346の異なるシーンのうち、59746のグレースケール注釈付き画像を含む新しいデータセットを提示する。
これらの画像では、すべての対向車、対応する光オブジェクト(例えばヘッドランプ)、およびそれぞれの光反射(例えばガードレールの光反射)がラベル付けされている。
そのために私たちは,新たな車両検出方法の研究を可能にするために,包括的な根拠データを備えたオープンソースデータセットを初めて提供します。
論文 参考訳(メタデータ) (2020-12-31T00:06:26Z) - Computer Vision based Accident Detection for Autonomous Vehicles [0.0]
ダッシュボードカメラを用いて車両事故を検出する自動運転支援システムを提案する。
このフレームワークは、ダッシュカム映像のカスタムデータセットでテストされ、誤報率を低く保ちながら、高い事故検出率を達成する。
論文 参考訳(メタデータ) (2020-12-20T08:51:10Z) - Ego-motion and Surrounding Vehicle State Estimation Using a Monocular
Camera [11.29865843123467]
単眼カメラを用いて,エゴモーションと周囲の車両状態を推定する新しい機械学習手法を提案する。
提案手法は3つのディープニューラルネットワークを組み合わせて,画像列から3次元車両境界ボックス,深度,光学的流れを推定する。
論文 参考訳(メタデータ) (2020-05-04T16:41:38Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。