論文の概要: Towards view-invariant vehicle speed detection from driving simulator
images
- arxiv url: http://arxiv.org/abs/2206.00343v1
- Date: Wed, 1 Jun 2022 09:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 15:48:24.153499
- Title: Towards view-invariant vehicle speed detection from driving simulator
images
- Title(参考訳): 運転シミュレータ画像からの車内速度変化検出に向けて
- Authors: Antonio Hern\'andez Mart\'inez, David Fernandez Llorca, Iv\'an
Garc\'ia Daza
- Abstract要約: 複雑な3D-CNNアーキテクチャが単一のモデルを用いて暗黙的にビュー不変速度を学習できるかどうかという問題に対処する。
結果は、複数のビューのデータを持つ単一のモデルが、カメラ固有のモデルよりも精度が高いことを示しているため、非常に有望である。
- 参考スコア(独自算出の注目度): 0.31498833540989407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of cameras for vehicle speed measurement is much more cost effective
compared to other technologies such as inductive loops, radar or laser.
However, accurate speed measurement remains a challenge due to the inherent
limitations of cameras to provide accurate range estimates. In addition,
classical vision-based methods are very sensitive to extrinsic calibration
between the camera and the road. In this context, the use of data-driven
approaches appears as an interesting alternative. However, data collection
requires a complex and costly setup to record videos under real traffic
conditions from the camera synchronized with a high-precision speed sensor to
generate the ground truth speed values. It has recently been demonstrated that
the use of driving simulators (e.g., CARLA) can serve as a robust alternative
for generating large synthetic datasets to enable the application of deep
learning techniques for vehicle speed estimation for a single camera. In this
paper, we study the same problem using multiple cameras in different virtual
locations and with different extrinsic parameters. We address the question of
whether complex 3D-CNN architectures are capable of implicitly learning
view-invariant speeds using a single model, or whether view-specific models are
more appropriate. The results are very promising as they show that a single
model with data from multiple views reports even better accuracy than
camera-specific models, paving the way towards a view-invariant vehicle speed
measurement system.
- Abstract(参考訳): 車両の速度測定のためのカメラの使用は、誘導ループ、レーダー、レーザーといった他の技術よりもはるかにコスト効率が良い。
しかし、正確な距離推定を提供するカメラの固有の制限のため、正確な速度測定は依然として課題である。
さらに、古典的な視覚に基づく手法は、カメラと道路の間の外的キャリブレーションに非常に敏感である。
この文脈では、データ駆動アプローチの使用は興味深い選択肢として見えます。
しかし、データ収集には、高精度の速度センサと同期したカメラから実際の交通条件下でビデオを記録するための複雑でコストのかかるセットアップが必要となる。
近年、運転シミュレータ(例えば、CARLA)の使用は、単一のカメラの車両速度推定にディープラーニング技術の適用を可能にするために、大規模な合成データセットを生成するための堅牢な代替手段となることが示されている。
本稿では,異なる仮想位置における複数のカメラと,異なる外部パラメータを用いた同じ問題を考察する。
複雑な3D-CNNアーキテクチャが単一のモデルを用いて暗黙的にビュー不変速度を学習できるのか、それともビュー固有モデルの方が適切かという問題に対処する。
結果は、複数のビューのデータを持つ単一のモデルでは、カメラ固有のモデルよりも精度が向上し、ビュー不変の車両速度測定システムへの道が開けていることを示しており、非常に有望である。
関連論文リスト
- Multi-Object Tracking with Camera-LiDAR Fusion for Autonomous Driving [0.8356765961526956]
提案したMOTアルゴリズムは、3段階のアソシエーションプロセスと、検出された動的障害物の運動を推定する拡張カルマンフィルタと、トラック管理フェーズとを備える。
多くの最先端のマルチモーダルMOTアプローチとは異なり、提案アルゴリズムはエゴのグローバルなポーズの地図や知識に依存しない。
このアルゴリズムはシミュレーションと実世界のデータの両方で検証され、良好な結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T23:49:16Z) - FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed
Estimation Using Traffic Cameras [14.339217121537537]
ナビゲーションやロジスティクスなどの交通依存システムは、信頼性の高い速度推定の恩恵を受ける可能性がある。
我々は,公共交通カメラのより多様なデータに対処する,自動リアルタイム車両速度計算のための新しいフレームワークを提供する。
我々のフレームワークは、カメラの動きや異なるビデオストリーム入力などの現実的な条件を自動で処理できる。
論文 参考訳(メタデータ) (2023-09-25T19:02:40Z) - Robust Frame-to-Frame Camera Rotation Estimation in Crowded Scenes [8.061773364318313]
本稿では,携帯型モノクロビデオから,混み合った現実世界のシーンにおけるカメラ回転推定手法を提案する。
我々は、17の動画シーケンスに対して、高精度で厳密に検証された地上真実を持つ新しいデータセットとベンチマークを提供する。
これは、混み合ったシーンに対する強力な新しいパフォーマンスポイントであり、コンピュータビジョンにとって重要な設定である。
論文 参考訳(メタデータ) (2023-09-15T17:44:07Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - FLEX: Parameter-free Multi-view 3D Human Motion Reconstruction [70.09086274139504]
マルチビューアルゴリズムはカメラパラメータ、特にカメラ間の相対的な位置に強く依存します。
エンドツーエンドのパラメータフリーマルチビューモデルであるFLEXを紹介します。
Human3.6MおよびKTH Multi-view Football IIデータセットの結果を実証する。
論文 参考訳(メタデータ) (2021-05-05T09:08:12Z) - Data-driven vehicle speed detection from synthetic driving simulator
images [0.440401067183266]
運転シミュレータから生成された合成画像を用いて車両の速度検出について検討する。
複数の速度、車両の種類や色、照明や気象条件に応じた可変性を持つ数千の画像を生成します。
CNN-GRUや3D-CNNなど,画像のシーケンスを出力速度(回帰)にマッピングする2つのアプローチについて検討した。
論文 参考訳(メタデータ) (2021-04-20T11:26:13Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。