論文の概要: Deep Learning Enhanced Road Traffic Analysis: Scalable Vehicle Detection and Velocity Estimation Using PlanetScope Imagery
- arxiv url: http://arxiv.org/abs/2410.14698v1
- Date: Fri, 04 Oct 2024 18:14:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:48.439199
- Title: Deep Learning Enhanced Road Traffic Analysis: Scalable Vehicle Detection and Velocity Estimation Using PlanetScope Imagery
- Title(参考訳): 深層学習による道路交通分析:PlanetScope画像を用いたスケーラブルな車両検出と速度推定
- Authors: Maciej Adamiak, Yulia Grinblat, Julian Psotta, Nir Fulman, Himshikhar Mazumdar, Shiyu Tang, Alexander Zipf,
- Abstract要約: 本稿では,PlanetScope SuperDove衛星画像を用いて車両の速度を推定する手法を提案する。
本稿では,RGB帯における車両軌跡追跡のためのキーポイントR-CNNモデルを提案する。
ドローン比較の結果、衛星データの平均速度は112.85km/h、ドローン映像の平均速度は131.83km/hと過小評価されている。
- 参考スコア(独自算出の注目度): 38.22365259129059
- License:
- Abstract: This paper presents a method for detecting and estimating vehicle speeds using PlanetScope SuperDove satellite imagery, offering a scalable solution for global vehicle traffic monitoring. Conventional methods such as stationary sensors and mobile systems like UAVs are limited in coverage and constrained by high costs and legal restrictions. Satellite-based approaches provide broad spatial coverage but face challenges, including high costs, low frame rates, and difficulty detecting small vehicles in high-resolution imagery. We propose a Keypoint R-CNN model to track vehicle trajectories across RGB bands, leveraging band timing differences to estimate speed. Validation is performed using drone footage and GPS data covering highways in Germany and Poland. Our model achieved a Mean Average Precision of 0.53 and velocity estimation errors of approximately 3.4 m/s compared to GPS data. Results from drone comparison reveal underestimations, with average speeds of 112.85 km/h for satellite data versus 131.83 km/h from drone footage. While challenges remain with high-speed accuracy, this approach demonstrates the potential for scalable, daily traffic monitoring across vast areas, providing valuable insights into global traffic dynamics.
- Abstract(参考訳): 本稿では,PlanetScope SuperDove衛星画像を用いた車両の速度推定手法を提案する。
静止センサーやUAVのようなモバイルシステムのような従来の手法は、高いコストと法的な制約によってカバー範囲が制限されている。
衛星ベースのアプローチは、高コスト、低フレームレート、高解像度画像での小型車両の検出の困難など、幅広い空間的カバレッジを提供するが、課題に直面している。
本稿では,RGB帯における車両軌跡追跡のためのキーポイントR-CNNモデルを提案する。
検証は、ドイツとポーランドの高速道路をカバーするドローン映像とGPSデータを用いて行われる。
平均精度0.53、速度推定誤差はGPSデータと比較すると約3.4m/sであった。
ドローン比較の結果、衛星データの平均速度は112.85km/h、ドローン映像の平均速度は131.83km/hである。
課題は高速な精度で残るが、このアプローチは、広範囲にわたるスケーラブルで日々のトラフィック監視の可能性を示し、グローバルなトラフィックダイナミクスに関する貴重な洞察を提供する。
関連論文リスト
- Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - RoadRunner -- Learning Traversability Estimation for Autonomous Off-road Driving [13.101416329887755]
我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T16:47:54Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed
Estimation Using Traffic Cameras [14.339217121537537]
ナビゲーションやロジスティクスなどの交通依存システムは、信頼性の高い速度推定の恩恵を受ける可能性がある。
我々は,公共交通カメラのより多様なデータに対処する,自動リアルタイム車両速度計算のための新しいフレームワークを提供する。
我々のフレームワークは、カメラの動きや異なるビデオストリーム入力などの現実的な条件を自動で処理できる。
論文 参考訳(メタデータ) (2023-09-25T19:02:40Z) - Turning Traffic Monitoring Cameras into Intelligent Sensors for Traffic
Density Estimation [9.096163152559054]
本稿では,4L特性の未校正交通監視カメラを用いて,交通密度を推定するためのフレームワークを提案する。
提案するフレームワークは,カメラキャリブレーションと車両検出という2つの主要コンポーネントで構成されている。
その結果, カメラキャリブレーションにおける平均絶対誤差 (MAE) は6m中0.2m未満であり, 各種条件下での車両検出精度は約90%であった。
論文 参考訳(メタデータ) (2021-10-29T15:39:06Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Vision-based Vehicle Speed Estimation for ITS: A Survey [0.47248250311484113]
近年は世界中に設置されるスピードカメラの数が増えている。
道路網における交通監視と予測は, スマートシティにおける交通, 排出, エネルギー消費の促進に不可欠な役割を担っている。
ビジョンベースのシステムの使用は、解決すべき大きな課題をもたらしますが、潜在的な大きな利点もあります。
論文 参考訳(メタデータ) (2021-01-15T15:07:54Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。