論文の概要: Data-driven vehicle speed detection from synthetic driving simulator
images
- arxiv url: http://arxiv.org/abs/2104.09903v1
- Date: Tue, 20 Apr 2021 11:26:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:53:36.119665
- Title: Data-driven vehicle speed detection from synthetic driving simulator
images
- Title(参考訳): 合成運転シミュレータ画像からのデータ駆動車速検出
- Authors: Antonio Hern\'andez Mart\'inez, Javier Lorenzo D\'iaz, Iv\'an Garc\'ia
Daza, David Fern\'andez Llorca
- Abstract要約: 運転シミュレータから生成された合成画像を用いて車両の速度検出について検討する。
複数の速度、車両の種類や色、照明や気象条件に応じた可変性を持つ数千の画像を生成します。
CNN-GRUや3D-CNNなど,画像のシーケンスを出力速度(回帰)にマッピングする2つのアプローチについて検討した。
- 参考スコア(独自算出の注目度): 0.440401067183266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite all the challenges and limitations, vision-based vehicle speed
detection is gaining research interest due to its great potential benefits such
as cost reduction, and enhanced additional functions. As stated in a recent
survey [1], the use of learning-based approaches to address this problem is
still in its infancy. One of the main difficulties is the need for a large
amount of data, which must contain the input sequences and, more importantly,
the output values corresponding to the actual speed of the vehicles. Data
collection in this context requires a complex and costly setup to capture the
images from the camera synchronized with a high precision speed sensor to
generate the ground truth speed values. In this paper we explore, for the first
time, the use of synthetic images generated from a driving simulator (e.g.,
CARLA) to address vehicle speed detection using a learning-based approach. We
simulate a virtual camera placed over a stretch of road, and generate thousands
of images with variability corresponding to multiple speeds, different vehicle
types and colors, and lighting and weather conditions. Two different approaches
to map the sequence of images to an output speed (regression) are studied,
including CNN-GRU and 3D-CNN. We present preliminary results that support the
high potential of this approach to address vehicle speed detection.
- Abstract(参考訳): あらゆる課題と制限にもかかわらず、コスト削減や追加機能強化といった大きな潜在的な利点のために、視覚に基づく車両の速度検出が研究の関心を集めている。
最近の調査[1]で述べたように、この問題に対処するための学習ベースのアプローチの使用はまだ初期段階にある。
主な課題の1つは、大量のデータが必要であることであり、これは入力シーケンスと、さらに重要なのは、車両の実際の速度に対応する出力値を含む必要がある。
このコンテキストにおけるデータ収集には、高精度の速度センサと同期して地上の真理速度値を生成するカメラからの画像をキャプチャするための、複雑で高価な設定が必要である。
本稿では,運転シミュレータ(例えばcarla)から生成された合成画像を用いて,学習に基づくアプローチによる車両速度検出を初めて検討する。
道路上に設置した仮想カメラをシミュレートし,複数の速度,車両の種類や色,照明や気象条件に応じた数千の画像を生成する。
CNN-GRUや3D-CNNなど,画像のシーケンスを出力速度(回帰)にマッピングする2つのアプローチについて検討した。
本稿では,このアプローチの車速検出への高ポテンシャルを支持する予備的な結果を示す。
関連論文リスト
- Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Towards view-invariant vehicle speed detection from driving simulator
images [0.31498833540989407]
複雑な3D-CNNアーキテクチャが単一のモデルを用いて暗黙的にビュー不変速度を学習できるかどうかという問題に対処する。
結果は、複数のビューのデータを持つ単一のモデルが、カメラ固有のモデルよりも精度が高いことを示しているため、非常に有望である。
論文 参考訳(メタデータ) (2022-06-01T09:14:45Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。