論文の概要: Learning Online Policies for Person Tracking in Multi-View Environments
- arxiv url: http://arxiv.org/abs/2312.15858v1
- Date: Tue, 26 Dec 2023 02:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:08:55.871110
- Title: Learning Online Policies for Person Tracking in Multi-View Environments
- Title(参考訳): マルチビュー環境における人物追跡のためのオンライン政策の学習
- Authors: Keivan Nalaie, Rong Zheng
- Abstract要約: MVSparseは、複数の同期カメラにまたがる協調的多人数追跡のための新しいフレームワークである。
MVSparseシステムは、エッジサーバベースのモデルと分散軽量強化学習(RL)エージェントを組み合わせた、慎重にオーケストレーションされたパイプラインで構成されている。
私たちの貢献には、マルチカメラの歩行者追跡データセットの実証分析、マルチカメラの開発、マルチパーソナリティ検出パイプラインの開発、MVSparseの実装などが含まれています。
- 参考スコア(独自算出の注目度): 4.62316736194615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce MVSparse, a novel and efficient framework for
cooperative multi-person tracking across multiple synchronized cameras. The
MVSparse system is comprised of a carefully orchestrated pipeline, combining
edge server-based models with distributed lightweight Reinforcement Learning
(RL) agents operating on individual cameras. These RL agents intelligently
select informative blocks within each frame based on historical camera data and
detection outcomes from neighboring cameras, significantly reducing
computational load and communication overhead. The edge server aggregates
multiple camera views to perform detection tasks and provides feedback to the
individual agents. By projecting inputs from various perspectives onto a common
ground plane and applying deep detection models, MVSparse optimally leverages
temporal and spatial redundancy in multi-view videos. Notably, our
contributions include an empirical analysis of multi-camera pedestrian tracking
datasets, the development of a multi-camera, multi-person detection pipeline,
and the implementation of MVSparse, yielding impressive results on both open
datasets and real-world scenarios. Experimentally, MVSparse accelerates overall
inference time by 1.88X and 1.60X compared to a baseline approach while only
marginally compromising tracking accuracy by 2.27% and 3.17%, respectively,
showcasing its promising potential for efficient multi-camera tracking
applications.
- Abstract(参考訳): 本稿では,複数の同期カメラ間の協調的マルチパーソントラッキングのための新しい効率的なフレームワークmvsparseを提案する。
MVSparseシステムは、エッジサーバベースのモデルと、個々のカメラで動作する分散軽量強化学習(RL)エージェントを組み合わせた、慎重にオーケストレーションされたパイプラインで構成されている。
これらのRLエージェントは、過去のカメラデータと近隣カメラによる検出結果に基づいて、各フレーム内の情報ブロックをインテリジェントに選択し、計算負荷と通信オーバーヘッドを大幅に削減する。
エッジサーバは複数のカメラビューを集約して検出タスクを実行し、個々のエージェントにフィードバックを提供する。
様々な視点から入力を共通の基底面に投影し、深い検出モデルを適用することで、mvsparseはマルチビュービデオにおける時間的および空間的冗長性を最適に活用する。
特に、マルチカメラ歩行者追跡データセットの実証分析、マルチカメラ、マルチパーソン検出パイプラインの開発、mvsparseの実装など、オープンデータセットと実世界のシナリオの両方で印象的な結果が得られました。
実験的に、MVSparseはベースラインアプローチと比較して、全体的な推論時間を1.88Xと1.60Xで加速するが、トラッキングの精度は2.27%と3.17%しか差がない。
関連論文リスト
- MCTR: Multi Camera Tracking Transformer [45.66952089591361]
Multi-Camera Tracking tRansformer (MCTR)は、マルチオブジェクト検出と複数のカメラ間のトラッキングに適した、エンドツーエンドのアプローチである。
MCTRは、Detector TRansformer (DETR)のようなエンドツーエンドの検出器を利用して、カメラビューごとに独立して検出および検出埋め込みを生成する。
このフレームワークは、追跡されたオブジェクトに関するグローバル情報を付加する一連のトラック埋め込みを維持し、ビュー固有の検出埋め込みからローカル情報を統合することで、各フレームでそれらを更新する。
論文 参考訳(メタデータ) (2024-08-23T17:37:03Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - Enabling Cross-Camera Collaboration for Video Analytics on Distributed
Smart Cameras [7.609628915907225]
本稿では、スマートカメラ上でのクロスカメラコラボレーションによる分散ビデオ分析システムArgusを紹介する。
マルチカメラ・マルチターゲットトラッキングを主課題であるマルチカメラ・ビデオ分析とし、冗長で処理量の多いタスクを避ける新しい手法を開発した。
Argusは最先端と比較してオブジェクトの識別とエンドツーエンドのレイテンシを最大7.13倍と2.19倍に削減する。
論文 参考訳(メタデータ) (2024-01-25T12:27:03Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - Enhancing Multi-Camera People Tracking with Anchor-Guided Clustering and
Spatio-Temporal Consistency ID Re-Assignment [22.531044994763487]
本稿では,アンカークラスタリング誘導を用いたマルチカメラによる複数人物追跡手法を提案する。
提案手法は,各個人固有の重要な特徴を特定することによって,トラッキングの精度を向上させることを目的としている。
この手法は, 合成データと実世界のデータの両方を扱う上で, 堅牢性と有効性を示した。
論文 参考訳(メタデータ) (2023-04-19T07:38:15Z) - Snipper: A Spatiotemporal Transformer for Simultaneous Multi-Person 3D
Pose Estimation Tracking and Forecasting on a Video Snippet [24.852728097115744]
RGBからの多人数ポーズ理解には、ポーズ推定、トラッキング、動き予測という3つの複雑なタスクが含まれる。
既存の作業の多くは、ひとつのタスクに集中するか、複数のタスクを別々に解決するためのマルチステージアプローチを採用するかのどちらかです。
Snipperは、複数の人物によるポーズ推定、追跡、動き予測を同時に行うための統合されたフレームワークである。
論文 参考訳(メタデータ) (2022-07-09T18:42:14Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。