論文の概要: Rank-based verification for long-term face tracking in crowded scenes
- arxiv url: http://arxiv.org/abs/2107.13273v1
- Date: Wed, 28 Jul 2021 11:15:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 19:38:23.632483
- Title: Rank-based verification for long-term face tracking in crowded scenes
- Title(参考訳): 混み合ったシーンにおける長期顔追跡のランクに基づく検証
- Authors: Germ\'an Barquero, Isabelle Hupont and Carles Fern\'andez
- Abstract要約: 混み合った状況下での作業を目的とした,長期的な多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩の恩恵を受け、長期追跡を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most current multi-object trackers focus on short-term tracking, and are
based on deep and complex systems that often cannot operate in real-time,
making them impractical for video-surveillance. In this paper we present a
long-term, multi-face tracking architecture conceived for working in crowded
contexts where faces are often the only visible part of a person. Our system
benefits from advances in the fields of face detection and face recognition to
achieve long-term tracking, and is particularly unconstrained to the motion and
occlusions of people. It follows a tracking-by-detection approach, combining a
fast short-term visual tracker with a novel online tracklet reconnection
strategy grounded on rank-based face verification. The proposed rank-based
constraint favours higher inter-class distance among tracklets, and reduces the
propagation of errors due to wrong reconnections. Additionally, a correction
module is included to correct past assignments with no extra computational
cost. We present a series of experiments introducing novel specialized metrics
for the evaluation of long-term tracking capabilities, and publicly release a
video dataset with 10 manually annotated videos and a total length of 8' 54".
Our findings validate the robustness of each of the proposed modules, and
demonstrate that, in these challenging contexts, our approach yields up to 50%
longer tracks than state-of-the-art deep learning trackers.
- Abstract(参考訳): 現在のマルチオブジェクトトラッカーのほとんどは、短期追跡に重点を置いており、リアルタイムに動作できない深く複雑なシステムに基づいているため、ビデオ監視には実用的ではない。
本稿では,顔が人の目に見える唯一の部分であるような混み合った状況下で作業するための,長期的な多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩によって長期追跡が可能となり、特に人の動きや閉塞に制約されない。
高速の短期ビジュアルトラッカーと、ランクベースの顔認証に基づく新しいオンライントラックレット再接続戦略を組み合わせた、トラッキング・バイ・検出アプローチに従っている。
提案したランクに基づく制約は,トラックレット間のクラス間距離を高くし,誤接続によるエラーの伝播を低減する。
さらに、補正モジュールは、余分な計算コストなしで過去の割り当てを修正するために含まれる。
我々は,長期追跡機能評価のための新しい専門的指標を導入し,手動で注釈付きビデオ10本と総長さ8' 54の動画データセットを公開する実験を行った。
提案した各モジュールのロバスト性を検証し,これらの挑戦的な状況において,我々の手法は最先端のディープラーニングトラッカーよりも最大50%長いトラックが得られることを示した。
関連論文リスト
- LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Multi-view Tracking Using Weakly Supervised Human Motion Prediction [60.972708589814125]
さらに効果的なアプローチは、時間とともに人々の動きを予測し、それらから個々のフレームにおける人々の存在を推定することである、と我々は主張する。
これにより、時間とともに、また1つの時間フレームのビューにわたって一貫性を強制できる。
PETS2009およびWILDTRACKデータセットに対する我々のアプローチを検証するとともに、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T17:58:23Z) - CoCoLoT: Combining Complementary Trackers in Long-Term Visual Tracking [17.2557973738397]
本稿では,長期追跡性能を向上させるために,補完的な視覚トラッカーの特性を組み合わせたCoCoLoTというフレームワークを提案する。
CoCoLoTは、オンライン学習された深層検証モデルを通じて、トラッカーが対象オブジェクトをフォローしているかどうかを認識し、意思決定ポリシーを起動する。
提案手法は広範に評価され、他のいくつかのソリューションとの比較により、最も人気のある視覚的追跡ベンチマークにおいて最先端の手法と競合することが判明した。
論文 参考訳(メタデータ) (2022-05-09T13:25:13Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Long-Term Face Tracking for Crowded Video-Surveillance Scenarios [0.0]
混み合った状況下での作業に適した長期多面追跡アーキテクチャを提案する。
我々のシステムは、顔検出と顔認識の分野での進歩の恩恵を受け、長期追跡を実現する。
論文 参考訳(メタデータ) (2020-10-17T00:11:13Z) - Unsupervised Multiple Person Tracking using AutoEncoder-Based Lifted
Multicuts [11.72025865314187]
最小限の視覚的特徴とリフトマルチカットに基づく教師なし多重物体追跡手法を提案する。
提案したアノテーションを使わずにトレーニングされているにもかかわらず,我々のモデルは,歩行者追跡のための挑戦的なMOTベンチマークにおいて,競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2020-02-04T09:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。