論文の概要: VME: A Satellite Imagery Dataset and Benchmark for Detecting Vehicles in the Middle East and Beyond
- arxiv url: http://arxiv.org/abs/2505.22353v1
- Date: Wed, 28 May 2025 13:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.630232
- Title: VME: A Satellite Imagery Dataset and Benchmark for Detecting Vehicles in the Middle East and Beyond
- Title(参考訳): VME: 中東における車両検出のための衛星画像データセットとベンチマーク
- Authors: Noora Al-Emadi, Ingmar Weber, Yin Yang, Ferda Ofli,
- Abstract要約: 衛星画像における車両検出は、交通管理、都市計画、災害対応に不可欠である。
現在のモデルは、特に地域によって、現実世界の多様性に苦しむ。
我々は、中東諸国の高解像度衛星画像において、車両検出のために明確に設計された、中東における車両(VME)データセットを提示する。
- 参考スコア(独自算出の注目度): 9.576056095537563
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Detecting vehicles in satellite images is crucial for traffic management, urban planning, and disaster response. However, current models struggle with real-world diversity, particularly across different regions. This challenge is amplified by geographic bias in existing datasets, which often focus on specific areas and overlook regions like the Middle East. To address this gap, we present the Vehicles in the Middle East (VME) dataset, designed explicitly for vehicle detection in high-resolution satellite images from Middle Eastern countries. Sourced from Maxar, the VME dataset spans 54 cities across 12 countries, comprising over 4,000 image tiles and more than 100,000 vehicles, annotated using both manual and semi-automated methods. Additionally, we introduce the largest benchmark dataset for Car Detection in Satellite Imagery (CDSI), combining images from multiple sources to enhance global car detection. Our experiments demonstrate that models trained on existing datasets perform poorly on Middle Eastern images, while the VME dataset significantly improves detection accuracy in this region. Moreover, state-of-the-art models trained on CDSI achieve substantial improvements in global car detection.
- Abstract(参考訳): 衛星画像中の車両の検出は、交通管理、都市計画、災害対応に不可欠である。
しかし、現在のモデルは、特に地域によって、現実世界の多様性に苦しむ。
この課題は、既存のデータセットの地理的バイアスによって増幅される。
このギャップに対処するため、中東諸国の高解像度衛星画像における車両検出のために設計された、中東の車両(VME)データセットを提示する。
Maxarによると、VMEデータセットは12か国54都市にまたがっており、4000以上の画像タイルと10万台以上の車両で構成され、手動と半自動の両方の方法で注釈付けされている。
さらに,衛星画像(CDSI)における車検出のための最大のベンチマークデータセットを導入し,複数のソースの画像を組み合わせてグローバルな車検出を強化した。
実験の結果,既存のデータセットでトレーニングしたモデルでは,中東のイメージでは性能が悪く,VMEデータセットでは検出精度が著しく向上していることがわかった。
さらに、CDSIでトレーニングされた最先端モデルでは、グローバルな車検出が大幅に改善されている。
関連論文リスト
- SDM-Car: A Dataset for Small and Dim Moving Vehicles Detection in Satellite Videos [21.07461123197859]
textbfSmall と textbfDim textbfMoving Cars のデータセットを構築し,衛星ビデオに多数のアノテーションを付加した。
ディム車両の検出精度を向上させるために,画像強調と注意機構に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-12-24T06:43:27Z) - Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン画像からジオレファレンス車両軌跡を抽出する枠組みを提案する。
研究は韓国のソンド国際事業地区で行われた。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Real-time Geo-localization Using Satellite Imagery and Topography for
Unmanned Aerial Vehicles [18.71806336611299]
本稿では,UAV上の軽量組込みシステムにおいて,シーン変更と実用性に信頼性のあるフレームワークを提案する。
このフレームワークは、オフラインデータベースの準備とオンライン推論の2つのステージで構成されている。
2つの異なるUAVプラットフォーム上でのイメージベースローカライゼーションのフィールド実験を行い、その結果を検証した。
論文 参考訳(メタデータ) (2021-08-07T01:47:19Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Vehicle Detection of Multi-source Remote Sensing Data Using Active
Fine-tuning Network [26.08837467340853]
提案するMs-AFtフレームワークは,移動学習,セグメンテーション,アクティブな分類を,自動ラベリングと検出のための統合されたフレームワークに統合する。
提案したMs-AFtは、未ラベルのデータセットから車両のトレーニングセットを最初に生成するために、微調整ネットワークを使用している。
2つのオープンISPRSベンチマークデータセットで実施された大規模な実験結果は、車両検出のための提案されたMs-AFtの優位性と有効性を示している。
論文 参考訳(メタデータ) (2020-07-16T17:46:46Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。