論文の概要: Intelligent Querying for Target Tracking in Camera Networks using Deep
Q-Learning with n-Step Bootstrapping
- arxiv url: http://arxiv.org/abs/2004.09632v1
- Date: Mon, 20 Apr 2020 20:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:54:44.125913
- Title: Intelligent Querying for Target Tracking in Camera Networks using Deep
Q-Learning with n-Step Bootstrapping
- Title(参考訳): n-Step Bootstrappingを用いた深部Q-Learningを用いたカメラネットワークにおける目標追跡のためのインテリジェントクエリ
- Authors: Anil Sharma, Saket Anand, and Sanjit K. Kaul
- Abstract要約: カメラネットワークにおける目標追跡問題をMDPとして定式化し、再識別クエリを作成するためのカメラを選択する強化学習に基づくポリシーを学習する。
提案手法はカメラネットワークトポロジの知識を前提としないが,提案手法は暗黙的に学習する。
- 参考スコア(独自算出の注目度): 11.221084462863894
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Surveillance camera networks are a useful infrastructure for various visual
analytics applications, where high-level inferences and predictions could be
made based on target tracking across the network. Most multi-camera tracking
works focus on target re-identification and trajectory association problems to
track the target. However, since camera networks can generate enormous amount
of video data, inefficient schemes for making re-identification or trajectory
association queries can incur prohibitively large computational requirements.
In this paper, we address the problem of intelligent scheduling of
re-identification queries in a multi-camera tracking setting. To this end, we
formulate the target tracking problem in a camera network as an MDP and learn a
reinforcement learning based policy that selects a camera for making a
re-identification query. The proposed approach to camera selection does not
assume the knowledge of the camera network topology but the resulting policy
implicitly learns it. We have also shown that such a policy can be learnt
directly from data. Using the NLPR MCT and the Duke MTMC multi-camera
multi-target tracking benchmarks, we empirically show that the proposed
approach substantially reduces the number of frames queried.
- Abstract(参考訳): 監視カメラネットワークは、ネットワーク全体のターゲット追跡に基づいてハイレベルな推論と予測を行うことができる様々なビジュアル分析アプリケーションにとって有用なインフラである。
多くのマルチカメラ追跡作業は、ターゲットを追跡するためにターゲットの再識別と軌道関連の問題に焦点を当てている。
しかし、カメラネットワークは膨大なビデオデータを生成することができるため、再同定や軌道関連クエリを行うための非効率なスキームは、非常に大きな計算要件を負う可能性がある。
本稿では,マルチカメラ追跡環境における再識別クエリのインテリジェントスケジューリングの問題に対処する。
この目的のために、カメラネットワークにおける目標追跡問題をmdpとして定式化し、再識別クエリを行うカメラを選択する強化学習ベースのポリシーを学習する。
提案手法は,カメラネットワークトポロジの知識を前提とせず,その結果を暗黙的に学習する。
また、このようなポリシーをデータから直接学習できることも示している。
NLPR MCTとDuke MTMCマルチカメラのマルチターゲット追跡ベンチマークを用いて,提案手法がクエリ回数を大幅に削減することを示す。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - CML-MOTS: Collaborative Multi-task Learning for Multi-Object Tracking
and Segmentation [31.167405688707575]
ビデオフレーム上でのインスタンスレベルの視覚分析のためのフレームワークを提案する。
オブジェクト検出、インスタンスセグメンテーション、マルチオブジェクトトラッキングを同時に行うことができる。
提案手法は, KITTI MOTS と MOTS Challenge のデータセットを用いて広範に評価する。
論文 参考訳(メタデータ) (2023-11-02T04:32:24Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Learning to Select Camera Views: Efficient Multiview Understanding at
Few Glances [59.34619548026885]
本稿では,対象物やシナリオを所定のビューから分析し,処理に最適なビューを選択するビュー選択手法を提案する。
提案手法は,MVSelectという強化学習に基づくカメラ選択モジュールを備えており,ビューの選択だけでなく,タスクネットワークとの協調トレーニングも容易である。
論文 参考訳(メタデータ) (2023-03-10T18:59:10Z) - Tracking Passengers and Baggage Items using Multiple Overhead Cameras at
Security Checkpoints [2.021502591596062]
空港の検問所のセキュリティシナリオのために,オーバーヘッドカメラビデオ中の複数のオブジェクトを追跡する新しいフレームワークを提案する。
オーバヘッド画像からのインスタンスセグメンテーションの不確実性に関するモデル情報を提供するために,自己監視学習(SSL)手法を提案する。
この結果から,自己超越はモデルの推定時間を増大させることなく,オブジェクト検出精度を最大42%向上させることがわかった。
論文 参考訳(メタデータ) (2022-12-31T12:57:09Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Graph Neural Networks for Cross-Camera Data Association [3.490148531239259]
多くのマルチカメラコンピュータビジョンタスクには、クロスカメラ画像データアソシエーションが不可欠である。
本稿では,グローバルソリューションに着目したクロスカメラデータアソシエーションのための効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-17T09:52:39Z) - Multi-target tracking for video surveillance using deep affinity
network: a brief review [0.0]
ビデオ監視のためのマルチターゲットトラッキング(MTT)は、重要かつ困難なタスクの1つである。
深層学習モデルは人間の脳のように機能することが知られている。
論文 参考訳(メタデータ) (2021-10-29T10:44:26Z) - Tracking by Joint Local and Global Search: A Target-aware Attention
based Approach [63.50045332644818]
本研究では、ロバストな追跡のための局所的・グローバルな共同探索を行うための新たな目標認識型アテンション機構(TANet)を提案する。
具体的には、ターゲットオブジェクトパッチと連続ビデオフレームの特徴を抽出し、それらをデコーダネットワークに追従して、ターゲットを意識したグローバルアテンションマップを生成する。
追跡手順において、ロバストな追跡のための候補探索領域を探索することにより、ターゲット認識の注意を複数のトラッカーと統合する。
論文 参考訳(メタデータ) (2021-06-09T06:54:15Z) - TDIOT: Target-driven Inference for Deep Video Object Tracking [0.2457872341625575]
本研究では,事前訓練したMask R-CNNディープオブジェクト検出器をベースラインとして採用する。
本研究では,Mask R-CNNのFPN-ResNet101バックボーン上に新しい推論アーキテクチャを導入し,検出と追跡を共同で行う。
提案する単一オブジェクトトラッカであるtdiotは、データアソシエーションに外観類似性に基づく時間マッチングを適用する。
論文 参考訳(メタデータ) (2021-03-19T20:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。