論文の概要: Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization
- arxiv url: http://arxiv.org/abs/2103.15537v1
- Date: Mon, 29 Mar 2021 12:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 00:09:13.103366
- Title: Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization
- Title(参考訳): 歩行予測と正規化を伴う単一画像からの衣服交換者再識別
- Authors: Xin Jin, Tianyu He, Kecheng Zheng, Zhiheng Yin, Xu Shen, Zhen Huang,
Ruoyu Feng, Jianqiang Huang, Xian-Sheng Hua, Zhibo Chen
- Abstract要約: 本稿では,画像レイドモデルを用いて布非依存表現を学習するための補助タスクとして,歩行認識を導入する。
画像ベースのCloth-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して好適に動作することを示した。
- 参考スコア(独自算出の注目度): 65.50321170655225
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Cloth-Changing person re-identification (CC-ReID) aims at matching the same
person across different locations over a long-duration, e.g., over days, and
therefore inevitably meets challenge of changing clothing. In this paper, we
focus on handling well the CC-ReID problem under a more challenging setting,
i.e., just from a single image, which enables high-efficiency and latency-free
pedestrian identify for real-time surveillance applications. Specifically, we
introduce Gait recognition as an auxiliary task to drive the Image ReID model
to learn cloth-agnostic representations by leveraging personal unique and
cloth-independent gait information, we name this framework as GI-ReID. GI-ReID
adopts a two-stream architecture that consists of a image ReID-Stream and an
auxiliary gait recognition stream (Gait-Stream). The Gait-Stream, that is
discarded in the inference for high computational efficiency, acts as a
regulator to encourage the ReID-Stream to capture cloth-invariant biometric
motion features during the training. To get temporal continuous motion cues
from a single image, we design a Gait Sequence Prediction (GSP) module for
Gait-Stream to enrich gait information. Finally, a high-level semantics
consistency over two streams is enforced for effective knowledge
regularization. Experiments on multiple image-based Cloth-Changing ReID
benchmarks, e.g., LTCC, PRCC, Real28, and VC-Clothes, demonstrate that GI-ReID
performs favorably against the state-of-the-arts. Codes are available at
https://github.com/jinx-USTC/GI-ReID.
- Abstract(参考訳): 衣服交換者再識別(cc-reid)は、例えば、日時など、長期間にわたって異なる場所で同じ人物とマッチングすることを目的としており、必然的に衣料変更の課題を満たしている。
本稿では,cc-reid問題を1枚の画像のみからより困難な状況,すなわちリアルタイム監視アプリケーションにおいて高効率かつレイテンシフリーな歩行者識別を実現することに焦点を当てる。
具体的には,個人の独自かつ布に依存しない歩行情報を活用し,画像レイドモデルを用いて布非依存表現を学習する補助タスクとして,この枠組みをgi-reidと命名する。
GI-ReIDはイメージReID-Streamと補助歩行認識ストリーム(Gait-Stream)で構成される2ストリームアーキテクチャを採用している。
ゲイトストリームは高い計算効率の推論で破棄され、トレーニング中にreidストリームが布不変の生体運動の特徴を捉えるよう促すレギュレータとして機能する。
一つの画像から時間的連続的な動きの手がかりを得るため、Gait-Stream のための Gait Sequence Prediction (GSP) モジュールを設計し、歩行情報を強化する。
最後に、2つのストリーム上の高レベルのセマンティクス一貫性を、効果的な知識正規化のために実施する。
複数の画像ベースのClos-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して良好に動作することを示した。
コードはhttps://github.com/jinx-USTC/GI-ReIDで入手できる。
関連論文リスト
- Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - A Generative Approach for Wikipedia-Scale Visual Entity Recognition [56.55633052479446]
与えられたクエリ画像をWikipediaにある600万の既存エンティティの1つにマッピングするタスクに対処する。
本稿では,対象エンティティを識別する「意味的・識別的コード」の自動復号化を学習する,新しい生成エンティティ認識フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-03-04T13:47:30Z) - CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation [2.1756081703276]
長期の人物再同定は、長期にわたるカメラ間で個人をマッチングすることを目的としている。
我々は,LRe-IDのためのコントラスト的衣服とポース拡張フレームワークであるCCPAを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:16:34Z) - Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification [8.885551377703944]
本稿ではセマンティック・アウェア・コンシスタンス・ネットワーク(SCNet)を紹介し,アイデンティティに関連するセマンティックな特徴を学習する。
衣服領域の画素を消去することにより,黒衣画像を生成する。
さらに、高レベルのアイデンティティ関連セマンティック特徴の学習を容易にするために、セマンティック一貫性損失を設計する。
論文 参考訳(メタデータ) (2023-08-27T14:07:57Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - A Benchmark of Video-Based Clothes-Changing Person Re-Identification [20.010401795892125]
着替え型ビデオベース再識別(CCVReID)の比較的新しい実用的課題について検討する。
我々は,CCVReID問題を扱うための2分岐信頼度対応フレームワークを開発する。
CCVReID問題のためのベンチマークデータセットを2つ構築する。
論文 参考訳(メタデータ) (2022-11-21T03:38:18Z) - Revisiting Consistency Regularization for Semi-supervised Change
Detection in Remote Sensing Images [60.89777029184023]
教師付きクロスエントロピー(CE)損失に加えて、教師なしCD損失を定式化する半教師付きCDモデルを提案する。
2つの公開CDデータセットを用いて実験を行った結果,提案手法は教師付きCDの性能に近づきやすいことがわかった。
論文 参考訳(メタデータ) (2022-04-18T17:59:01Z) - Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification [10.045028405219641]
我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-01T07:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。