論文の概要: Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification
- arxiv url: http://arxiv.org/abs/2008.06181v2
- Date: Mon, 17 Aug 2020 03:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:19:57.416425
- Title: Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification
- Title(参考訳): アパレル変化者再同定のためのアパレル不変特徴学習
- Authors: Zhengxu Yu, Yilun Zhao, Bin Hong, Zhongming Jin, Jianqiang Huang, Deng
Cai, Xiaofei He, Xian-Sheng Hua
- Abstract要約: ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
- 参考スコア(独自算出の注目度): 70.16040194572406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of deep learning methods, person Re-Identification (ReID)
performance has been improved tremendously in many public datasets. However,
most public ReID datasets are collected in a short time window in which
persons' appearance rarely changes. In real-world applications such as in a
shopping mall, the same person's clothing may change, and different persons may
wearing similar clothes. All these cases can result in an inconsistent ReID
performance, revealing a critical problem that current ReID models heavily rely
on person's apparels. Therefore, it is critical to learn an apparel-invariant
person representation under cases like cloth changing or several persons
wearing similar clothes. In this work, we tackle this problem from the
viewpoint of invariant feature representation learning. The main contributions
of this work are as follows. (1) We propose the semi-supervised
Apparel-invariant Feature Learning (AIFL) framework to learn an
apparel-invariant pedestrian representation using images of the same person
wearing different clothes. (2) To obtain images of the same person wearing
different clothes, we propose an unsupervised apparel-simulation GAN (AS-GAN)
to synthesize cloth changing images according to the target cloth embedding.
It's worth noting that the images used in ReID tasks were cropped from
real-world low-quality CCTV videos, making it more challenging to synthesize
cloth changing images. We conduct extensive experiments on several datasets
comparing with several baselines. Experimental results demonstrate that our
proposal can improve the ReID performance of the baseline models.
- Abstract(参考訳): ディープラーニング手法の出現に伴い、多くの公開データセットにおいて、人物再識別(ReID)のパフォーマンスが大幅に向上した。
しかし、ほとんどの公開ReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服が変化し、異なる人が同様の服を着ることができる。
これらのケースはすべて矛盾したReIDパフォーマンスをもたらし、現在のReIDモデルは人のアパレルに大きく依存している重要な問題を明らかにする。
そのため、着替えなどの場合にアパレル不変な人物表現や、同様の服を着ている複数の人物を学習することが重要である。
本研究では,不変特徴表現学習の観点からこの問題に取り組む。
この作品の主な貢献は以下の通りである。
1) 半教師付きアパレル不変特徴学習(aifl)フレームワークを提案し, 異なる服装の同一人物の画像を用いてアパレル不変歩行者表現を学習する。
2) 異なる服を着ている同一人物の画像を得るために, 対象の布を埋め込んだ布を合成するための無監督アパレルシミュレーションGAN(AS-GAN)を提案する。
reidタスクで使われる画像は、実世界の低品質cctvビデオから切り抜かれたので、布を変える画像の合成がより難しくなっています。
複数のベースラインと比較し,複数のデータセットについて広範な実験を行った。
実験の結果,本提案手法はベースラインモデルのreid性能を向上させることができた。
関連論文リスト
- CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation [2.1756081703276]
長期の人物再同定は、長期にわたるカメラ間で個人をマッチングすることを目的としている。
我々は,LRe-IDのためのコントラスト的衣服とポース拡張フレームワークであるCCPAを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:16:34Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - GEFF: Improving Any Clothes-Changing Person ReID Model using Gallery
Enrichment with Face Features [11.189236254478057]
CC-ReID(Closes-Changing Re-Identification)問題では、人のクエリサンプルが与えられた場合、その人が異なる服装で現れるラベル付きギャラリーに基づいて正しいアイデンティティを決定することが目的である。
いくつかのモデルは、衣服に依存しない特徴を抽出することで、この問題に対処している。
衣料品関連の機能がデータの主要な機能であることが多いので、我々はギャラリー・エンリッチメントと呼ばれる新しいプロセスを提案する。
論文 参考訳(メタデータ) (2022-11-24T21:41:52Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Unsupervised clothing change adaptive person ReID [14.777001614779806]
我々は、教師なしの衣服変更者ReID問題を解決するために、新しい教師なしモデルSync-Person-Cloud ReIDを設計する。
同期強化とは、同一人物のリソースを供給することであり、同一人物の特徴制限により、そのリソースを部分的監督入力として使用することができる。
論文 参考訳(メタデータ) (2021-09-08T15:08:10Z) - Multigranular Visual-Semantic Embedding for Cloth-Changing Person
Re-identification [38.7806002518266]
本研究は, 布を交換するReIDのための新しいビジュアル・セマンティック・埋め込み・アルゴリズム(MVSE)を提案する。
衣服の変化のある人を完全に表現するために、多粒性特徴表現スキーム(MGR)を採用し、その後、布脱感ネットワーク(CDN)を設計する。
人的属性の整合に使用される視覚意味情報を得るために,部分意味整合ネットワーク(PSA)を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:14:44Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - COCAS: A Large-Scale Clothes Changing Person Dataset for
Re-identification [88.79807574669294]
ClOthes Ch Anging Person Set (COCAS) という新しい大規模再識別子・ベンチマークを構築した。
COCASには5,266人の身体像が62,382枚含まれている。
そこでは,服のテンプレートと,別の衣服を撮影する人物画像の両方を含む,着替え問題に対する新たな人物再識別子設定を提案する。
論文 参考訳(メタデータ) (2020-05-16T03:50:08Z) - Learning Shape Representations for Clothing Variations in Person
Re-Identification [34.559050607889816]
人物再識別(re-ID)は、異なるカメラで撮影された複数の画像に含まれる同一人物のインスタンスを認識することを目的としている。
衣服の色やパターンの影響を受けずに体型特徴表現を生成できる新しい表現学習モデルを提案する。
Case-Netは、相手の学習と特徴の絡み合いを通じて、身体の形にのみ依存するアイデンティティの表現を学習する。
論文 参考訳(メタデータ) (2020-03-16T17:23:50Z) - Person Re-identification by Contour Sketch under Moderate Clothing
Change [95.83034113646657]
異なるカメラビューにまたがる歩行者画像のマッチングプロセスである人物再認識は、視覚的監視において重要な課題である。
この作品では、衣服の下でのリメイドを「クロス・クロス・パーソン・リメイド」と呼ぶ。
クロス・クローズ・パーソナリティのための大規模なデータセットが欠如しているため、221のアイデンティティから33698の画像からなる新しいデータセットをコントリビュートする。
論文 参考訳(メタデータ) (2020-02-06T15:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。