論文の概要: Seq-Masks: Bridging the gap between appearance and gait modeling for
video-based person re-identification
- arxiv url: http://arxiv.org/abs/2112.05626v1
- Date: Fri, 10 Dec 2021 16:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 18:03:00.746841
- Title: Seq-Masks: Bridging the gap between appearance and gait modeling for
video-based person re-identification
- Title(参考訳): Seq-Masks: 映像に基づく人物再識別のための外観と歩行モデリングのギャップを埋める
- Authors: Zhigang Chang, Zhao Yang, Yongbiao Chen, Qin Zhou, Shibao Zheng
- Abstract要約: イデオをベースとした人物識別(Re-ID)は、不随意監視カメラが捉えた映像の人物像をマッチングすることを目的としている。
従来のビデオベースのRe-ID手法では、外観情報の探索に重点を置いており、照明の変化、シーンノイズ、カメラパラメータ、特に衣服やキャリーのバリエーションに対して脆弱である。
映像中のシークエンスマスク(SeqMask)を利用して、外観情報と歩行モデリングを密接な方法で統合するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.490428828061292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ideo-based person re-identification (Re-ID) aims to match person images in
video sequences captured by disjoint surveillance cameras. Traditional
video-based person Re-ID methods focus on exploring appearance information,
thus, vulnerable against illumination changes, scene noises, camera parameters,
and especially clothes/carrying variations. Gait recognition provides an
implicit biometric solution to alleviate the above headache. Nonetheless, it
experiences severe performance degeneration as camera view varies. In an
attempt to address these problems, in this paper, we propose a framework that
utilizes the sequence masks (SeqMasks) in the video to integrate appearance
information and gait modeling in a close fashion. Specifically, to sufficiently
validate the effectiveness of our method, we build a novel dataset named
MaskMARS based on MARS. Comprehensive experiments on our proposed large wild
video Re-ID dataset MaskMARS evidenced our extraordinary performance and
generalization capability. Validations on the gait recognition metric CASIA-B
dataset further demonstrated the capability of our hybrid model.
- Abstract(参考訳): イデオをベースとした人物識別(Re-ID)は、不随意監視カメラが捉えた映像の人物像をマッチングすることを目的としている。
従来のビデオベースのRe-ID手法では、外観情報の探索に重点を置いており、照明の変化、シーンノイズ、カメラパラメータ、特に衣服やキャリーのバリエーションに対して脆弱である。
歩行認識は、上記の頭痛を軽減するために暗黙の生体計測ソリューションを提供する。
それでも、カメラの視界が変わると、パフォーマンスが悪化する。
本稿では,これらの問題に対処するために,映像中のシーケンスマスク(SeqMask)を利用して外観情報と歩行モデリングを緊密に統合するフレームワークを提案する。
具体的には,提案手法の有効性を十分に検証するために,MARSに基づくMaskMARSという新しいデータセットを構築した。
提案する大規模ワイルドビデオリidデータセットの包括的実験により,その性能と汎用性が実証された。
歩容認識指標casia-bデータセットの検証により,ハイブリッドモデルの能力がさらに実証された。
関連論文リスト
- Pluralistic Salient Object Detection [108.74650817891984]
本稿では,与えられた入力画像に対して,複数の有意な有意な有意な有意な有意な有意な分割結果を生成することを目的とした新しい課題であるPSOD(multiistic Salient Object Detection)を紹介する。
新たに設計された評価指標とともに,2つのSODデータセット "DUTS-MM" と "DUS-MQ" を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:38:37Z) - Siamese Masked Autoencoders [76.35448665609998]
ビデオから視覚的対応を学習するために,Siamese Masked Autoencoders(SiamMAE)を提案する。
SiamMAEはランダムにサンプリングされたビデオフレームのペアで動作し、非対称にそれらをマスクする。
ビデオオブジェクトのセグメンテーション、キーポイントのプロパゲーション、セマンティック部分のプロパゲーションタスクにおいて、最先端の自己管理手法よりも優れています。
論文 参考訳(メタデータ) (2023-05-23T17:59:46Z) - Disguise without Disruption: Utility-Preserving Face De-Identification [40.484745636190034]
本研究では,修正データの利用性を確保しつつ,顔画像をシームレスに識別する新しいアルゴリズムであるDisguiseを紹介する。
本手法は, 難読化と非可逆性を最大化するために, 変分機構を用いて生成した合成物を用いて, 描写されたアイデンティティを抽出し置換することを含む。
提案手法を複数のデータセットを用いて広範に評価し,様々な下流タスクにおける従来の手法と比較して,高い非識別率と一貫性を示す。
論文 参考訳(メタデータ) (2023-03-23T13:50:46Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - MINTIME: Multi-Identity Size-Invariant Video Deepfake Detection [17.74528571088335]
我々はMINTIMEというビデオディープフェイク検出手法を導入し、空間的および時間的異常を捉え、同じビデオ内の複数の人のインスタンスと顔サイズの変化を処理します。
複数の人を含むビデオにおいて、最大14%のAUCを改善して、ForgeryNetデータセットの最先端結果を達成する。
論文 参考訳(メタデータ) (2022-11-20T15:17:24Z) - Face Anti-Spoofing from the Perspective of Data Sampling [0.342658286826597]
顔提示攻撃検出は、デジタルデバイスに安全な顔アクセスを提供する上で重要な役割を果たす。
既存のビデオベースのPAD対策には、ビデオの長時間の時間変動に対処する能力がない。
本稿では,ガウス重み関数に基づく長距離時間変動をモデル化したビデオ処理方式を提案する。
論文 参考訳(メタデータ) (2022-08-28T07:54:30Z) - Mask-invariant Face Recognition through Template-level Knowledge
Distillation [3.727773051465455]
マスクは従来の顔認識システムの性能に影響を与える。
マスク不変顔認識ソリューション(MaskInv)を提案する。
蒸留された知識に加えて、学生ネットワークは、マージンベースのアイデンティティ分類損失による追加ガイダンスの恩恵を受ける。
論文 参考訳(メタデータ) (2021-12-10T16:19:28Z) - Multi-Dataset Benchmarks for Masked Identification using Contrastive
Representation Learning [0.0]
新型コロナウイルスのパンデミックは世界中で受け入れられた基準を大きく変えた。
パスポート、運転免許証、国籍カードなどの公式文書には、完全な顔画像が登録されている。
空港やセキュリティチェックポイントでは、マスクの取り外しを依頼するのではなく、識別文書の未マスク画像とマスク付き人物とを一致させる方が安全である。
本稿では,マスクとマスクのない顔マッチングに特化した,視覚表現学習に基づく事前学習ワークフローを提案する。
論文 参考訳(メタデータ) (2021-06-10T08:58:10Z) - Contrastive Context-Aware Learning for 3D High-Fidelity Mask Face
Presentation Attack Detection [103.7264459186552]
顔認識システムには、顔提示攻撃検出(PAD)が不可欠である。
ほとんどの既存の3DマスクPADベンチマークにはいくつかの欠点があります。
現実世界のアプリケーションとのギャップを埋めるために、大規模なハイファイアリティマスクデータセットを紹介します。
論文 参考訳(メタデータ) (2021-04-13T12:48:38Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。