論文の概要: Kalman Filter Based Multiple Person Head Tracking
- arxiv url: http://arxiv.org/abs/2006.06134v1
- Date: Thu, 11 Jun 2020 00:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:22:11.761018
- Title: Kalman Filter Based Multiple Person Head Tracking
- Title(参考訳): カルマンフィルタを用いた多人数頭部追跡
- Authors: Mohib Ullah, Maqsood Mahmud, Habib Ullah, Kashif Ahmad, Ali Shariq
Imran, Faouzi Alaya Cheikh
- Abstract要約: 最先端のアプローチは、ディープラーニングに基づく視覚表現に依存している。
我々は、人間追跡のためのシンプルで効果的なターゲット表現を考案した。
- 参考スコア(独自算出の注目度): 10.235946073664818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For multi-target tracking, target representation plays a crucial rule in
performance. State-of-the-art approaches rely on the deep learning-based visual
representation that gives an optimal performance at the cost of high
computational complexity. In this paper, we come up with a simple yet effective
target representation for human tracking. Our inspiration comes from the fact
that the human body goes through severe deformation and inter/intra occlusion
over the passage of time. So, instead of tracking the whole body part, a
relative rigid organ tracking is selected for tracking the human over an
extended period of time. Hence, we followed the tracking-by-detection paradigm
and generated the target hypothesis of only the spatial locations of heads in
every frame. After the localization of head location, a Kalman filter with a
constant velocity motion model is instantiated for each target that follows the
temporal evolution of the targets in the scene. For associating the targets in
the consecutive frames, combinatorial optimization is used that associates the
corresponding targets in a greedy fashion. Qualitative results are evaluated on
four challenging video surveillance dataset and promising results has been
achieved.
- Abstract(参考訳): マルチターゲットトラッキングでは、ターゲット表現がパフォーマンスにおいて重要なルールとなる。
最先端のアプローチは、計算複雑性の高いコストで最適なパフォーマンスを提供するディープラーニングベースのビジュアル表現に依存している。
本稿では,人間追跡のための簡易かつ効果的なターゲット表現を考案する。
私たちのインスピレーションは、人体が時間の経過とともに激しく変形し、相互に閉塞するという事実から来ています。
そのため、身体全体をトラッキングする代わりに、長期にわたってヒトを追跡するための相対的な剛性臓器追跡が選択される。
そこで,追跡・検出のパラダイムに従い,各フレーム内の頭部の空間的位置のみを対象とする仮説を作成した。
頭部位置の局所化後、シーン内のターゲットの時間的進化に追従する目標毎に、一定の速度運動モデルを持つカルマンフィルタをインスタンス化する。
連続フレームにおけるターゲットの関連付けには、対応するターゲットをグリーディーな方法で関連付ける組合せ最適化を用いる。
4つの挑戦的ビデオ監視データセットで質的結果が評価され、有望な結果が得られた。
関連論文リスト
- AlphaPose: Whole-Body Regional Multi-Person Pose Estimation and Tracking
in Real-Time [47.19339667836196]
提案するAlphaPoseは,リアルタイムに動作しながら,身体全体のポーズを正確に推定・追跡できるシステムである。
我々は,COCO-全体,COCO,PoseTrack,提案したHalpe-FullBodyポーズ推定データセットにおいて,現在の最先端手法よりも高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2022-11-07T09:15:38Z) - Tracking by Joint Local and Global Search: A Target-aware Attention
based Approach [63.50045332644818]
本研究では、ロバストな追跡のための局所的・グローバルな共同探索を行うための新たな目標認識型アテンション機構(TANet)を提案する。
具体的には、ターゲットオブジェクトパッチと連続ビデオフレームの特徴を抽出し、それらをデコーダネットワークに追従して、ターゲットを意識したグローバルアテンションマップを生成する。
追跡手順において、ロバストな追跡のための候補探索領域を探索することにより、ターゲット認識の注意を複数のトラッカーと統合する。
論文 参考訳(メタデータ) (2021-06-09T06:54:15Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - Dynamic Attention guided Multi-Trajectory Analysis for Single Object
Tracking [62.13213518417047]
動的注意誘導型マルチ軌道追跡戦略を考案し,さらにダイナミクスを導入することを提案する。
特に、複数のターゲットテンプレートを含む動的外観モデルを構築し、それぞれが新しいフレーム内のターゲットを特定するのに独自の注意を払っています。
シーケンス全体にまたがった後、マルチ軌道選択ネットワークを導入し、トラッキング性能を向上させた最適な軌道を見つけます。
論文 参考訳(メタデータ) (2021-03-30T05:36:31Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Blending of Learning-based Tracking and Object Detection for Monocular
Camera-based Target Following [2.578242050187029]
本稿では,ジェネリックターゲットトラッカーとオブジェクト検出モジュールを対象再識別モジュールと融合するリアルタイムアプローチを提案する。
本研究は,進化的リカレントニューラルネットワークを用いたオブジェクトトラッカーの性能向上に重点を置いている。
論文 参考訳(メタデータ) (2020-08-21T18:44:35Z) - Applying r-spatiogram in object tracking for occlusion handling [16.36552899280708]
映像追跡の目的は、動画シーケンス内の移動対象を正確に特定し、そのシーケンスの特徴空間内の非ターゲットから目標を識別することである。
本稿では,オブジェクトモデリング,オブジェクト検出とローカライゼーション,モデル更新という,参照モデルの3つの主要コンポーネントで構成される多くのトラッカーの基本概念を用いる。
論文 参考訳(メタデータ) (2020-03-18T02:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。