論文の概要: So you think you can track?
- arxiv url: http://arxiv.org/abs/2309.07268v1
- Date: Wed, 13 Sep 2023 19:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 17:00:03.592887
- Title: So you think you can track?
- Title(参考訳): あなたは追跡できると思いますか?
- Authors: Derek Gloudemans, Gergely Zach\'ar, Yanbing Wang, Junyi Ji, Matt Nice,
Matt Bunting, William Barbour, Jonathan Sprinkle, Benedetto Piccoli, Maria
Laura Delle Monache, Alexandre Bayen, Benjamin Seibold, Daniel B. Work
- Abstract要約: この研究は、ナッシュビル近郊の8-10車線州間高速道路の4.2マイル(4.2マイル)をカバーする234のHDカメラから同時に記録された234時間のビデオデータからなるマルチカメラ追跡データセットを導入している。
ビデオはトラフィック密度の高い期間に録画され、通常500以上のオブジェクトがシーン内に表示され、典型的なオブジェクトの長寿命は3~15分である。
現場を通過する270台の車両からのGPSトラジェクトリをビデオデータで手動で修正し、リコール指向のトラッキングメトリクスのための地上トラジェクトリのセットを提供する。
- 参考スコア(独自算出の注目度): 37.25914081637133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces a multi-camera tracking dataset consisting of 234 hours
of video data recorded concurrently from 234 overlapping HD cameras covering a
4.2 mile stretch of 8-10 lane interstate highway near Nashville, TN. The video
is recorded during a period of high traffic density with 500+ objects typically
visible within the scene and typical object longevities of 3-15 minutes. GPS
trajectories from 270 vehicle passes through the scene are manually corrected
in the video data to provide a set of ground-truth trajectories for
recall-oriented tracking metrics, and object detections are provided for each
camera in the scene (159 million total before cross-camera fusion). Initial
benchmarking of tracking-by-detection algorithms is performed against the GPS
trajectories, and a best HOTA of only 9.5% is obtained (best recall 75.9% at
IOU 0.1, 47.9 average IDs per ground truth object), indicating the benchmarked
trackers do not perform sufficiently well at the long temporal and spatial
durations required for traffic scene understanding.
- Abstract(参考訳): この研究は、ナッシュビル近郊の8-10車線州間高速道路の4.2マイル(4.2マイル)をカバーする234台のHDカメラから同時に記録された234時間のビデオデータからなるマルチカメラ追跡データセットを導入する。
ビデオは、500以上のオブジェクトがシーン内で見られる高いトラフィック密度の期間に記録され、典型的なオブジェクトの寿命は3~15分である。
映像データに270台の車両が通過したgpsトラジェクタを手作業で補正し、リコール指向トラッキングメトリクスのための地中トラジェクタセットを提供し、シーン内の各カメラに対して物体検出を提供する(クロスカメラ融合前の合計1億9900万)。
追跡検出アルゴリズムの初期ベンチマークはGPSトラジェクトリに対して行われ、最高のHOTAは9.5%しか得られない(最も良いリコールはIOU 0.1で75.9%、地上の真理オブジェクト当たり47.9の平均ID)。
関連論文リスト
- The 8th AI City Challenge [57.25825945041515]
2024年版では5トラックが収録され、47か国と地域の726チームから前例のない関心を集めた。
このチャレンジでは、2つのリーダーボードを使ってメソッドを展示し、参加者は新しいベンチマークを設定した。
論文 参考訳(メタデータ) (2024-04-15T03:12:17Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - The Interstate-24 3D Dataset: a new benchmark for 3D multi-camera
vehicle tracking [4.799822253865053]
本研究は,道路交通カメラの重なり合う都市州間高速道路に沿って記録された新しい映像データセットを提示し,交通監視状況下でのマルチカメラ3Dオブジェクト追跡を可能にする。
データは、少なくとも16台のカメラのビデオを含む3つのシーンから解放され、合計で57分である。
877,000個の3Dバウンディングボックスと対応するオブジェクトトラックレットは、各カメラの視野に対して完全に正確に注釈付けされ、各シーンごとに空間的かつ時間的に連続した車両軌跡セットに結合される。
論文 参考訳(メタデータ) (2023-08-28T18:43:33Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - Fast Vehicle Detection and Tracking on Fisheye Traffic Monitoring Video
using CNN and Bounding Box Propagation [5.366354612549172]
横断歩道に設置した魚眼映像の交通監視のための高速車検出・追跡アルゴリズムを設計する。
高速化のために、セグメント内の中間フレームに対してグレースケールのフレーム差を使用し、処理速度を2倍にすることができる。
論文 参考訳(メタデータ) (2022-07-04T03:55:19Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - VariabilityTrack:Multi-Object Tracking with Variable Speed Object
Movement [1.6385815610837167]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
環境フィードバックに基づく可変速度カルマンフィルタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-12T12:39:41Z) - Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark [97.07865343576361]
DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
論文 参考訳(メタデータ) (2021-05-06T04:46:14Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。