論文の概要: Vehicle Perception from Satellite
- arxiv url: http://arxiv.org/abs/2402.00703v1
- Date: Thu, 1 Feb 2024 15:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 14:49:53.555100
- Title: Vehicle Perception from Satellite
- Title(参考訳): 衛星からの車両知覚
- Authors: Bin Zhao, Pengfei Han, and Xuelong Li
- Abstract要約: データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
- 参考スコア(独自算出の注目度): 54.07157185000604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Satellites are capable of capturing high-resolution videos. It makes vehicle
perception from satellite become possible. Compared to street surveillance,
drive recorder or other equipments, satellite videos provide a much broader
city-scale view, so that the global dynamic scene of the traffic are captured
and displayed. Traffic monitoring from satellite is a new task with great
potential applications, including traffic jams prediction, path planning,
vehicle dispatching, \emph{etc.}. Practically, limited by the resolution and
view, the captured vehicles are very tiny (a few pixels) and move slowly. Worse
still, these satellites are in Low Earth Orbit (LEO) to capture such
high-resolution videos, so the background is also moving. Under this
circumstance, traffic monitoring from the satellite view is an extremely
challenging task. To attract more researchers into this field, we build a
large-scale benchmark for traffic monitoring from satellite. It supports
several tasks, including tiny object detection, counting and density
estimation. The dataset is constructed based on 12 satellite videos and 14
synthetic videos recorded from GTA-V. They are separated into 408 video clips,
which contain 7,336 real satellite images and 1,960 synthetic images. 128,801
vehicles are annotated totally, and the number of vehicles in each image varies
from 0 to 101. Several classic and state-of-the-art approaches in traditional
computer vision are evaluated on the datasets, so as to compare the performance
of different approaches, analyze the challenges in this task, and discuss the
future prospects. The dataset is available at:
https://github.com/Chenxi1510/Vehicle-Perception-from-Satellite-Videos.
- Abstract(参考訳): 衛星は高解像度のビデオを撮影することができる。
衛星からの車両認識を可能にする。
ストリート監視やドライブレコーダー、その他の機器と比較して、衛星ビデオはより広い都市スケールのビューを提供し、トラフィックのグローバルなダイナミックなシーンをキャプチャして表示する。
衛星からのトラフィック監視は、交通渋滞の予測、経路計画、車両派遣、 \emph{etc。
}.
実際には、解像度とビューによって制限され、撮影された車両は非常に小さく(数ピクセル)、ゆっくりと動く。
さらに悪いことに、これらの衛星は高解像度のビデオを撮影するために低軌道(LEO)にあるため、背景も動いている。
この状況下では、衛星からの交通監視は非常に難しい課題である。
この分野により多くの研究者を惹きつけるため、衛星からの交通監視のための大規模なベンチマークを構築した。
小さな物体検出、計数、密度推定など、いくつかのタスクをサポートする。
データセットは、gta-vから記録された12の衛星ビデオと14の合成ビデオに基づいている。
ビデオクリップは408本、実際の衛星画像は7,336枚、合成画像は1,960枚である。
128,801台の車両に注釈を付け、各画像の車両数は0から101に変化する。
従来のコンピュータビジョンにおけるいくつかの古典的かつ最先端のアプローチをデータセット上で評価し、異なるアプローチのパフォーマンスを比較し、このタスクの課題を分析し、今後の展望について議論する。
データセットは以下の通りである。 https://github.com/Chenxi1510/Vehicle-Perception-from-Satellite-Videos。
関連論文リスト
- Vehicle Vectors and Traffic Patterns from Planet Imagery [4.013337799051293]
静止車と移動車の両方が高解像度のSkySat画像で確実に識別可能であることを示す。
移動物体のバンド間変位(またはレインボー効果)を利用して移動車両の速度と進路を推定できる。
論文 参考訳(メタデータ) (2024-06-10T14:35:59Z) - The Interstate-24 3D Dataset: a new benchmark for 3D multi-camera
vehicle tracking [4.799822253865053]
本研究は,道路交通カメラの重なり合う都市州間高速道路に沿って記録された新しい映像データセットを提示し,交通監視状況下でのマルチカメラ3Dオブジェクト追跡を可能にする。
データは、少なくとも16台のカメラのビデオを含む3つのシーンから解放され、合計で57分である。
877,000個の3Dバウンディングボックスと対応するオブジェクトトラックレットは、各カメラの視野に対して完全に正確に注釈付けされ、各シーンごとに空間的かつ時間的に連続した車両軌跡セットに結合される。
論文 参考訳(メタデータ) (2023-08-28T18:43:33Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Deep Vehicle Detection in Satellite Video [0.0]
車両検出は、車両(4ピクセル)の微妙さと背景のEOとの類似性のため、単一の衛星画像ではおそらく不可能である。
プール層を無視し、漏れやすいReLUを使用する、コンパクトな3倍の3ドルニューラルネットワークの新しいモデルが提案されている。
2つの新しい注釈付き衛星ビデオの実証的な結果により、このアプローチが車両検出に適用可能であることが再確認された。
論文 参考訳(メタデータ) (2022-04-14T08:54:44Z) - Detecting and Tracking Small and Dense Moving Objects in Satellite
Videos: A Benchmark [30.078513715446196]
オブジェクトの検出と追跡を行うタスクに対して,豊富なアノテーションを付加した大規模衛星ビデオデータセットを構築した。
このデータセットは、ジリン1の衛星コンステレーションによって収集される。
衛星ビデオにおける物体の検出と追跡を行うための最初の公開ベンチマークを確立する。
論文 参考訳(メタデータ) (2021-11-25T08:01:41Z) - Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark [97.07865343576361]
DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
論文 参考訳(メタデータ) (2021-05-06T04:46:14Z) - On Learning Vehicle Detection in Satellite Video [0.0]
空中および衛星画像における車両検出は、リモートセンシング画像の全体像と比較すると、ピクセルの出現が小さいため、依然として困難である。
本研究は,衛星映像における広域動画像(WAMI)の深層学習への応用を提案する。
論文 参考訳(メタデータ) (2020-01-29T15:35:16Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。