論文の概要: Real-time 3D Deep Multi-Camera Tracking
- arxiv url: http://arxiv.org/abs/2003.11753v1
- Date: Thu, 26 Mar 2020 06:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:50:30.901417
- Title: Real-time 3D Deep Multi-Camera Tracking
- Title(参考訳): リアルタイム3次元深層カメラ追跡
- Authors: Quanzeng You, Hao Jiang
- Abstract要約: 本稿では,DMCT(Deep Multi-Camera Tracking)を提案する。
本システムは,リアルタイム性能を維持しつつ,最先端のトラッキング結果を実現する。
- 参考スコア(独自算出の注目度): 13.494550690138775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking a crowd in 3D using multiple RGB cameras is a challenging task. Most
previous multi-camera tracking algorithms are designed for offline setting and
have high computational complexity. Robust real-time multi-camera 3D tracking
is still an unsolved problem. In this work, we propose a novel end-to-end
tracking pipeline, Deep Multi-Camera Tracking (DMCT), which achieves reliable
real-time multi-camera people tracking. Our DMCT consists of 1) a fast and
novel perspective-aware Deep GroudPoint Network, 2) a fusion procedure for
ground-plane occupancy heatmap estimation, 3) a novel Deep Glimpse Network for
person detection and 4) a fast and accurate online tracker. Our design fully
unleashes the power of deep neural network to estimate the "ground point" of
each person in each color image, which can be optimized to run efficiently and
robustly. Our fusion procedure, glimpse network and tracker merge the results
from different views, find people candidates using multiple video frames and
then track people on the fused heatmap. Our system achieves the
state-of-the-art tracking results while maintaining real-time performance.
Apart from evaluation on the challenging WILDTRACK dataset, we also collect two
more tracking datasets with high-quality labels from two different environments
and camera settings. Our experimental results confirm that our proposed
real-time pipeline gives superior results to previous approaches.
- Abstract(参考訳): 複数のRGBカメラを使って3Dで群衆を追跡することは難しい課題だ。
従来のマルチカメラトラッキングアルゴリズムのほとんどは、オフライン設定用に設計されており、計算の複雑さが高い。
ロバストなリアルタイムマルチカメラ3Dトラッキングはまだ未解決の問題だ。
本研究では,エンド・ツー・エンドのトラッキングパイプラインであるディープ・マルチカメラ・トラッキング(dmct)を提案し,信頼性の高いリアルタイム・マルチカメラ・パーソン・トラッキングを実現する。
私たちのDMCTは
1)高速かつ斬新な視点対応Deep GroudPoint Network
2)地上面占有熱マップ推定のための融合手順
3)人物検出のための新しいディープ・スピープ・ネットワーク
4) 高速で正確なオンライントラッカー。
本設計では,深層ニューラルネットワークのパワーを完全に解き放ち,各カラー画像における各人物の「接地点」を推定し,効率的かつロバストに動作するように最適化する。
我々の融合手順、ネットワークとトラッカーは、異なるビューから結果をマージし、複数のビデオフレームを使って候補者を見つけ、融合したヒートマップで人々を追跡します。
本システムは,リアルタイム性能を維持しつつ,最先端の追跡結果を実現する。
WILDTRACKデータセットの評価とは別に、2つの異なる環境とカメラ設定から高品質なラベルを持つ2つの追跡データセットも収集する。
実験結果から,提案した実時間パイプラインが従来手法よりも優れていることを確認した。
関連論文リスト
- DELTA: Dense Efficient Long-range 3D Tracking for any video [82.26753323263009]
DELTAは3次元空間内のすべてのピクセルを効率よく追跡し,ビデオ全体の正確な動き推定を可能にする手法である。
提案手法では,低分解能追跡のためのグローバルアテンション機構と,高分解能予測を実現するためのトランスフォーマーベースアップサンプラーを併用する。
提案手法は,3次元空間における細粒度・長期動作追跡を必要とするアプリケーションに対して,ロバストなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-31T17:59:01Z) - RockTrack: A 3D Robust Multi-Camera-Ken Multi-Object Tracking Framework [28.359633046753228]
マルチカメラ検出器のための3次元MOT法であるRockTrackを提案する。
RockTrackには、信頼性の高い前処理モジュールが組み込まれており、信頼性の高い動きと画像の観察を抽出する。
RockTrackは、59.1%のAMOTAを持つnuScenesビジョンのみのトラッキングリーダーボードで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-09-18T07:08:08Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - MMPTRACK: Large-scale Densely Annotated Multi-camera Multiple People
Tracking Benchmark [40.363608495563305]
自動アノテーションシステムの助けを借りて,5つの異なる環境において,大規模にラベル付けされたマルチカメラ追跡データセットを提供する。
3Dトラッキングの結果は、カメラパラメータを用いて各RGBカメラビューに投影され、2Dトラッキング結果が生成される。
このデータセットは、乱雑で混み合った環境で、より信頼性の高いマルチカメラ、マルチオブジェクトトラッキングシステムのベンチマークを提供する。
論文 参考訳(メタデータ) (2021-11-30T06:29:14Z) - LMGP: Lifted Multicut Meets Geometry Projections for Multi-Camera
Multi-Object Tracking [42.87953709286856]
マルチカメラ マルチオブジェクト追跡は、現実のアプリケーションにおいて優れた性能を持つため、コンピュータビジョン分野において現在注目されている。
本稿では,空間時空間昇降型マルチカット定式化に基づく数学的にエレガントなマルチカメラ・マルチオブジェクト追跡手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T14:09:47Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - JRMOT: A Real-Time 3D Multi-Object Tracker and a New Large-Scale Dataset [34.609125601292]
我々は,RGB画像と3Dポイントクラウドの情報を統合し,リアルタイムトラッキング性能を実現する新しい3DMOTシステムJRMOTを提案する。
我々の研究の一環として、新しい大規模2D+3DデータセットとベンチマークであるJRDBデータセットをリリースしました。
提案する3D MOTシステムは,一般的な2DトラッキングKITTIベンチマークにおいて,競合する手法に対する最先端性能を示す。
論文 参考訳(メタデータ) (2020-02-19T19:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。