論文の概要: Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery
- arxiv url: http://arxiv.org/abs/2411.02136v1
- Date: Mon, 04 Nov 2024 14:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:39:29.659746
- Title: Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery
- Title(参考訳): ドローン画像からのジオレファレンス車両軌跡抽出のための高度なコンピュータビジョン
- Authors: Robert Fonod, Haechan Cho, Hwasoo Yeo, Nikolas Geroliminis,
- Abstract要約: 本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
- 参考スコア(独自算出の注目度): 4.387337528923525
- License:
- Abstract: This paper presents a framework for extracting georeferenced vehicle trajectories from high-altitude drone footage, addressing key challenges in urban traffic monitoring and limitations of traditional ground-based systems. We employ state-of-the-art computer vision and deep learning to create an end-to-end pipeline that enhances vehicle detection, tracking, and trajectory stabilization. Conducted in the Songdo International Business District, South Korea, the study used a multi-drone experiment over 20 intersections, capturing approximately 12TB of 4K video data over four days. We developed a novel track stabilization method that uses detected vehicle bounding boxes as exclusion masks during image registration, which, combined with advanced georeferencing techniques, accurately transforms vehicle coordinates into real-world geographical data. Additionally, our framework includes robust vehicle dimension estimation and detailed road segmentation for in-depth traffic analysis. The framework produced two high-quality datasets: the Songdo Traffic dataset, comprising nearly 1 million unique vehicle trajectories, and the Songdo Vision dataset, containing over 5,000 human-annotated frames with about 300,000 vehicle instances in four classes. Comparisons between drone-derived data and high-precision sensor data from an instrumented probe vehicle highlight the accuracy and consistency of our framework's extraction in dense urban settings. By publicly releasing these datasets and the pipeline source code, this work sets new benchmarks for data quality, reproducibility, and scalability in traffic research. Results demonstrate the potential of integrating drone technology with advanced computer vision for precise, cost-effective urban traffic monitoring, providing valuable resources for the research community to develop intelligent transportation systems and improve traffic management strategies.
- Abstract(参考訳): 本稿では,都市交通監視における重要な課題に対処するため,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
我々は最先端のコンピュータビジョンとディープラーニングを使用して、車両の検出、追跡、軌道安定化を強化するエンドツーエンドパイプラインを作成します。
韓国のSongdo International Business Districtで行なわれたこの研究は、20の交差点で複数のドローン実験を行い、4日間で約12TBの4Kビデオデータを収集した。
画像登録時に検出された車両境界ボックスを排他マスクとして利用し,高度ジオレファレンス技術と組み合わせて,車両座標を実世界の地理データに正確に変換する新しいトラック安定化手法を開発した。
さらに,本フレームワークは,車内交通分析のためのロバストな車両次元推定と詳細な道路セグメント化を含む。
このフレームワークは、2つの高品質なデータセットを生成した。Songdo Trafficデータセットは100万近いユニークな車両軌跡で構成されており、Songdo Visionデータセットは5000以上の人称アノテートフレームと4つのクラスで約30万の車両インスタンスを含んでいる。
観測車両から得られたドローン由来のデータと高精度センサーデータの比較により,都市部の密集した環境下でのフレームワークの抽出精度と一貫性が明らかになった。
これらのデータセットとパイプラインのソースコードを公開することにより、この研究は、トラフィック研究におけるデータ品質、再現性、スケーラビリティのベンチマークを新たに設定する。
研究コミュニティがインテリジェントな交通システムを開発し、交通管理戦略を改善するための貴重な資源を提供するため、より正確で費用効率の高い都市交通監視のための高度なコンピュータビジョンとドローン技術を統合する可能性を実証した。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Multi-sensor Low-speed Autonomous Driving [62.5830455357187]
本稿では,3種類のセンサ(Camera, LiDAR, Fisheye)をベースとしたマルチモーダルデータ収集プラットフォームを構築する。
RoboSenseという名前の大規模なマルチセンサーデータセットが構築されており、ニアフィールドシーンの理解を容易にする。
RoboSenseは、1133K以上の同期データと1.4Mの3DバウンディングボックスとIDをフル360円のビューに格納し、7.6Kの時間シーケンスに216Kのトラジェクトリを形成する。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - The Interstate-24 3D Dataset: a new benchmark for 3D multi-camera
vehicle tracking [4.799822253865053]
本研究は,道路交通カメラの重なり合う都市州間高速道路に沿って記録された新しい映像データセットを提示し,交通監視状況下でのマルチカメラ3Dオブジェクト追跡を可能にする。
データは、少なくとも16台のカメラのビデオを含む3つのシーンから解放され、合計で57分である。
877,000個の3Dバウンディングボックスと対応するオブジェクトトラックレットは、各カメラの視野に対して完全に正確に注釈付けされ、各シーンごとに空間的かつ時間的に連続した車両軌跡セットに結合される。
論文 参考訳(メタデータ) (2023-08-28T18:43:33Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - TAU: A Framework for Video-Based Traffic Analytics Leveraging Artificial
Intelligence and Unmanned Aerial Systems [2.748428882236308]
自動トラフィック分析と理解のためのAI統合ビデオ分析フレームワークTAU(Traffic Analysis from UAVs)を開発した。
トラヒックビデオ解析における従来の研究とは違って,ビデオ処理から高解像度UAV画像を用いた高度なトラヒック理解へ向けた自動物体検出・追跡パイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-01T09:03:44Z) - CitySim: A Drone-Based Vehicle Trajectory Dataset for Safety Oriented
Research and Digital Twins [1.981804802324697]
CitySimは、12箇所で録画された1140分間のドローンビデオから車両軌道を抽出している。
CitySimは5ステップの手順で生成され、軌道の精度が保証された。
論文 参考訳(メタデータ) (2022-08-23T15:24:53Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。