論文の概要: Towards view-invariant vehicle speed detection from driving simulator
images
- arxiv url: http://arxiv.org/abs/2206.00343v1
- Date: Wed, 1 Jun 2022 09:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 15:48:24.153499
- Title: Towards view-invariant vehicle speed detection from driving simulator
images
- Title(参考訳): 運転シミュレータ画像からの車内速度変化検出に向けて
- Authors: Antonio Hern\'andez Mart\'inez, David Fernandez Llorca, Iv\'an
Garc\'ia Daza
- Abstract要約: 複雑な3D-CNNアーキテクチャが単一のモデルを用いて暗黙的にビュー不変速度を学習できるかどうかという問題に対処する。
結果は、複数のビューのデータを持つ単一のモデルが、カメラ固有のモデルよりも精度が高いことを示しているため、非常に有望である。
- 参考スコア(独自算出の注目度): 0.31498833540989407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of cameras for vehicle speed measurement is much more cost effective
compared to other technologies such as inductive loops, radar or laser.
However, accurate speed measurement remains a challenge due to the inherent
limitations of cameras to provide accurate range estimates. In addition,
classical vision-based methods are very sensitive to extrinsic calibration
between the camera and the road. In this context, the use of data-driven
approaches appears as an interesting alternative. However, data collection
requires a complex and costly setup to record videos under real traffic
conditions from the camera synchronized with a high-precision speed sensor to
generate the ground truth speed values. It has recently been demonstrated that
the use of driving simulators (e.g., CARLA) can serve as a robust alternative
for generating large synthetic datasets to enable the application of deep
learning techniques for vehicle speed estimation for a single camera. In this
paper, we study the same problem using multiple cameras in different virtual
locations and with different extrinsic parameters. We address the question of
whether complex 3D-CNN architectures are capable of implicitly learning
view-invariant speeds using a single model, or whether view-specific models are
more appropriate. The results are very promising as they show that a single
model with data from multiple views reports even better accuracy than
camera-specific models, paving the way towards a view-invariant vehicle speed
measurement system.
- Abstract(参考訳): 車両の速度測定のためのカメラの使用は、誘導ループ、レーダー、レーザーといった他の技術よりもはるかにコスト効率が良い。
しかし、正確な距離推定を提供するカメラの固有の制限のため、正確な速度測定は依然として課題である。
さらに、古典的な視覚に基づく手法は、カメラと道路の間の外的キャリブレーションに非常に敏感である。
この文脈では、データ駆動アプローチの使用は興味深い選択肢として見えます。
しかし、データ収集には、高精度の速度センサと同期したカメラから実際の交通条件下でビデオを記録するための複雑でコストのかかるセットアップが必要となる。
近年、運転シミュレータ(例えば、CARLA)の使用は、単一のカメラの車両速度推定にディープラーニング技術の適用を可能にするために、大規模な合成データセットを生成するための堅牢な代替手段となることが示されている。
本稿では,異なる仮想位置における複数のカメラと,異なる外部パラメータを用いた同じ問題を考察する。
複雑な3D-CNNアーキテクチャが単一のモデルを用いて暗黙的にビュー不変速度を学習できるのか、それともビュー固有モデルの方が適切かという問題に対処する。
結果は、複数のビューのデータを持つ単一のモデルでは、カメラ固有のモデルよりも精度が向上し、ビュー不変の車両速度測定システムへの道が開けていることを示しており、非常に有望である。
関連論文リスト
- SplatAD: Real-Time Lidar and Camera Rendering with 3D Gaussian Splatting for Autonomous Driving [6.221538885604869]
カメラとライダーデータのセンサリアリスティックレンダリングのための既存のニューラル放射場(NeRF)法は、低レンダリング速度に悩まされている。
SplatADは,カメラとライダーデータの両方の動的シーンをリアルかつリアルタイムにレンダリングするための,最初の3DGSベースの手法である。
論文 参考訳(メタデータ) (2024-11-25T16:18:22Z) - Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - oTTC: Object Time-to-Contact for Motion Estimation in Autonomous Driving [4.707950656037167]
自律運転システムは衝突を避け安全に運転するために 物体検出に大きく依存している
モノクロ3Dオブジェクト検出器は、カメラ画像から3D境界ボックスと物体速度を直接予測することでこの問題を解決しようとする。
最近の研究では、ピクセルごとの時間対接触を推定し、速度と深さの組み合わせよりも効果的に測定できることが示唆されている。
オブジェクト検出モデルを拡張したオブジェクトごとの時間対接触推定を提案し,各オブジェクトの時間対接触属性を付加的に予測する。
論文 参考訳(メタデータ) (2024-05-13T12:34:18Z) - FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed
Estimation Using Traffic Cameras [14.339217121537537]
ナビゲーションやロジスティクスなどの交通依存システムは、信頼性の高い速度推定の恩恵を受ける可能性がある。
我々は,公共交通カメラのより多様なデータに対処する,自動リアルタイム車両速度計算のための新しいフレームワークを提供する。
我々のフレームワークは、カメラの動きや異なるビデオストリーム入力などの現実的な条件を自動で処理できる。
論文 参考訳(メタデータ) (2023-09-25T19:02:40Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Data-driven vehicle speed detection from synthetic driving simulator
images [0.440401067183266]
運転シミュレータから生成された合成画像を用いて車両の速度検出について検討する。
複数の速度、車両の種類や色、照明や気象条件に応じた可変性を持つ数千の画像を生成します。
CNN-GRUや3D-CNNなど,画像のシーケンスを出力速度(回帰)にマッピングする2つのアプローチについて検討した。
論文 参考訳(メタデータ) (2021-04-20T11:26:13Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。