論文の概要: Long-Term Face Tracking for Crowded Video-Surveillance Scenarios
- arxiv url: http://arxiv.org/abs/2010.08675v1
- Date: Sat, 17 Oct 2020 00:11:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 11:57:42.963754
- Title: Long-Term Face Tracking for Crowded Video-Surveillance Scenarios
- Title(参考訳): 集合型ビデオサーベイランスシナリオの長期顔追跡
- Authors: Germ\'an Barquero, Carles Fern\'andez and Isabelle Hupont
- Abstract要約: 混み合った状況下での作業に適した長期多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩の恩恵を受け、長期追跡を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most current multi-object trackers focus on short-term tracking, and are
based on deep and complex systems that do not operate in real-time, often
making them impractical for video-surveillance. In this paper, we present a
long-term multi-face tracking architecture conceived for working in crowded
contexts, particularly unconstrained in terms of movement and occlusions, and
where the face is often the only visible part of the person. Our system
benefits from advances in the fields of face detection and face recognition to
achieve long-term tracking. It follows a tracking-by-detection approach,
combining a fast short-term visual tracker with a novel online tracklet
reconnection strategy grounded on face verification. Additionally, a correction
module is included to correct past track assignments with no extra
computational cost. We present a series of experiments introducing novel,
specialized metrics for the evaluation of long-term tracking capabilities and a
video dataset that we publicly release. Findings demonstrate that, in this
context, our approach allows to obtain up to 50% longer tracks than
state-of-the-art deep learning trackers.
- Abstract(参考訳): 現在、ほとんどのマルチオブジェクトトラッカーは短期追跡に重点を置いており、リアルタイムに動作しない深い複雑なシステムに基づいており、しばしばビデオ監視には実用的ではない。
本稿では,混み合った状況下での作業,特に移動やオクルージョンの面では無拘束であり,顔が人の唯一の目に見える部分であるような長時間多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩の恩恵を受け、長期追跡を実現する。
迅速な短期ビジュアルトラッカーと、顔認証に基づく新しいオンライントラックレット再接続戦略を組み合わせた、トラッキングバイ検出アプローチに従っている。
さらに、補正モジュールは、余分な計算コストなしで過去のトラック割り当てを修正するために含まれる。
本稿では, 長期追跡機能評価のための新鮮で専門的な指標と, 公開するビデオデータセットを紹介する。
この文脈において、我々のアプローチは最先端のディープラーニングトラッカーよりも最大50%長いトラックを取得できることを示しています。
関連論文リスト
- LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Tracking by Associating Clips [110.08925274049409]
本稿では,オブジェクト関連をクリップワイドマッチングとして扱う方法を検討する。
我々の新しい視点では、1つの長いビデオシーケンスを複数のショートクリップとみなし、そのトラックはクリップ内とクリップ間の両方で実行される。
この新しい手法の利点は2つある。まず、ビデオチャンキングによって中断フレームをバイパスできるため、エラーの蓄積や伝播の追跡に頑健である。
次に、クリップワイドマッチング中に複数のフレーム情報を集約し、現在のフレームワイドマッチングよりも高精度な長距離トラックアソシエーションを実現する。
論文 参考訳(メタデータ) (2022-12-20T10:33:17Z) - Multi-view Tracking Using Weakly Supervised Human Motion Prediction [60.972708589814125]
さらに効果的なアプローチは、時間とともに人々の動きを予測し、それらから個々のフレームにおける人々の存在を推定することである、と我々は主張する。
これにより、時間とともに、また1つの時間フレームのビューにわたって一貫性を強制できる。
PETS2009およびWILDTRACKデータセットに対する我々のアプローチを検証するとともに、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T17:58:23Z) - CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking [17.2557973738397]
本稿では,長期追跡性能を向上させるために,補完的な視覚トラッカーの特性を組み合わせたCoCoLoTというフレームワークを提案する。
CoCoLoTは、オンライン学習された深層検証モデルを通じて、トラッカーが対象オブジェクトをフォローしているかどうかを認識し、意思決定ポリシーを起動する。
提案手法は広範に評価され、他のいくつかのソリューションとの比較により、最も人気のある視覚的追跡ベンチマークにおいて最先端の手法と競合することが判明した。
論文 参考訳(メタデータ) (2022-05-09T13:25:13Z) - Rank-based verification for long-term face tracking in crowded scenes [0.0]
混み合った状況下での作業を目的とした,長期的な多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩の恩恵を受け、長期追跡を実現する。
論文 参考訳(メタデータ) (2021-07-28T11:15:04Z) - Tracking by Joint Local and Global Search: A Target-aware Attention
based Approach [63.50045332644818]
本研究では、ロバストな追跡のための局所的・グローバルな共同探索を行うための新たな目標認識型アテンション機構(TANet)を提案する。
具体的には、ターゲットオブジェクトパッチと連続ビデオフレームの特徴を抽出し、それらをデコーダネットワークに追従して、ターゲットを意識したグローバルアテンションマップを生成する。
追跡手順において、ロバストな追跡のための候補探索領域を探索することにより、ターゲット認識の注意を複数のトラッカーと統合する。
論文 参考訳(メタデータ) (2021-06-09T06:54:15Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z) - Unsupervised Multiple Person Tracking using AutoEncoder-Based Lifted
Multicuts [11.72025865314187]
最小限の視覚的特徴とリフトマルチカットに基づく教師なし多重物体追跡手法を提案する。
提案したアノテーションを使わずにトレーニングされているにもかかわらず,我々のモデルは,歩行者追跡のための挑戦的なMOTベンチマークにおいて,競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2020-02-04T09:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。