論文の概要: SDM-Car: A Dataset for Small and Dim Moving Vehicles Detection in Satellite Videos
- arxiv url: http://arxiv.org/abs/2412.18214v1
- Date: Tue, 24 Dec 2024 06:43:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:55:01.743040
- Title: SDM-Car: A Dataset for Small and Dim Moving Vehicles Detection in Satellite Videos
- Title(参考訳): SDM-Car:衛星ビデオにおける小型・薄型移動車検出用データセット
- Authors: Zhen Zhang, Tao Peng, Liang Liao, Jing Xiao, Mi Wang,
- Abstract要約: textbfSmall と textbfDim textbfMoving Cars のデータセットを構築し,衛星ビデオに多数のアノテーションを付加した。
ディム車両の検出精度を向上させるために,画像強調と注意機構に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 21.07461123197859
- License:
- Abstract: Vehicle detection and tracking in satellite video is essential in remote sensing (RS) applications. However, upon the statistical analysis of existing datasets, we find that the dim vehicles with low radiation intensity and limited contrast against the background are rarely annotated, which leads to the poor effect of existing approaches in detecting moving vehicles under low radiation conditions. In this paper, we address the challenge by building a \textbf{S}mall and \textbf{D}im \textbf{M}oving Cars (SDM-Car) dataset with a multitude of annotations for dim vehicles in satellite videos, which is collected by the Luojia 3-01 satellite and comprises 99 high-quality videos. Furthermore, we propose a method based on image enhancement and attention mechanisms to improve the detection accuracy of dim vehicles, serving as a benchmark for evaluating the dataset. Finally, we assess the performance of several representative methods on SDM-Car and present insightful findings. The dataset is openly available at https://github.com/TanedaM/SDM-Car.
- Abstract(参考訳): 衛星ビデオにおける車両検出と追跡は、リモートセンシング(RS)アプリケーションに不可欠である。
しかし, 既存データセットの統計的解析により, 低放射強度, 背景とのコントラストが限定されたディム車両にアノテートされることは稀であり, 低放射環境下での移動車両検出における既存のアプローチの悪影響が示唆された。
本稿では,Luojia 3-01衛星によって収集され,99の高品質なビデオを含む衛星ビデオ中のディム車両のアノテーションを多用した, \textbf{S}mall と \textbf{D}im \textbf{M}oving Cars (SDM-Car) データセットの構築による課題に対処する。
さらに,画像強調とアテンション機構に基づくディム車両の検出精度の向上手法を提案し,データセット評価のベンチマークとして機能する。
最後に,SDM-Carにおけるいくつかの代表的手法の性能評価を行い,洞察に富む結果を得た。
データセットはhttps://github.com/TanedaM/SDM-Carで公開されている。
関連論文リスト
- Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - Robust and Fast Vehicle Detection using Augmented Confidence Map [10.261351772602543]
車両を含む関心領域を強調する拡張の概念を導入する。
MR-MSERの出力は高速CNNに供給され、信頼マップを生成する。
車両検出のための複雑なモデルを実装する既存のモデルとは異なり、粗いセットとファジィベースのモデルの組み合わせについて検討する。
論文 参考訳(メタデータ) (2023-04-27T18:41:16Z) - Towards Multimodal Multitask Scene Understanding Models for Indoor
Mobile Agents [49.904531485843464]
本稿では,現実世界の屋内環境におけるラベル付きデータの不十分,あるいは不可能,といった主な課題について論じる。
MMISM (Multi-modality input Multi-task output Indoor Scene Understanding Model) について述べる。
MMISMは、RGB画像だけでなく、スパースライダーポイントを入力と3Dオブジェクト検出、深さ完了、人間のポーズ推定、セマンティックセグメンテーションを出力タスクとみなしている。
MMISMはシングルタスクモデルよりも同等かそれ以上の性能を示す。
論文 参考訳(メタデータ) (2022-09-27T04:49:19Z) - Video-based Smoky Vehicle Detection with A Coarse-to-Fine Framework [20.74110691914317]
75,000点の注釈付きスモーキー車両画像を用いた実世界の大規模スモーキー車両データセットを導入する。
また、セグメントレベルのアノテーションを備えた163の長いビデオを含む、スモーキーな車両ビデオデータセットも構築しています。
高速なスモーキー車両検出のための粗大きめのディープスモーキー車両検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-08T06:42:45Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Detecting and Tracking Small and Dense Moving Objects in Satellite
Videos: A Benchmark [30.078513715446196]
オブジェクトの検出と追跡を行うタスクに対して,豊富なアノテーションを付加した大規模衛星ビデオデータセットを構築した。
このデータセットは、ジリン1の衛星コンステレーションによって収集される。
衛星ビデオにおける物体の検出と追跡を行うための最初の公開ベンチマークを確立する。
論文 参考訳(メタデータ) (2021-11-25T08:01:41Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。