論文の概要: GEFF: Improving Any Clothes-Changing Person ReID Model using Gallery
Enrichment with Face Features
- arxiv url: http://arxiv.org/abs/2211.13807v2
- Date: Tue, 21 Nov 2023 18:47:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 05:54:34.065300
- Title: GEFF: Improving Any Clothes-Changing Person ReID Model using Gallery
Enrichment with Face Features
- Title(参考訳): GEFF:顔機能付きギャラリーエンリッチメントによる衣服交換者ReIDモデルの改善
- Authors: Daniel Arkushin, Bar Cohen, Shmuel Peleg, Ohad Fried
- Abstract要約: CC-ReID(Closes-Changing Re-Identification)問題では、人のクエリサンプルが与えられた場合、その人が異なる服装で現れるラベル付きギャラリーに基づいて正しいアイデンティティを決定することが目的である。
いくつかのモデルは、衣服に依存しない特徴を抽出することで、この問題に対処している。
衣料品関連の機能がデータの主要な機能であることが多いので、我々はギャラリー・エンリッチメントと呼ばれる新しいプロセスを提案する。
- 参考スコア(独自算出の注目度): 11.189236254478057
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the Clothes-Changing Re-Identification (CC-ReID) problem, given a query
sample of a person, the goal is to determine the correct identity based on a
labeled gallery in which the person appears in different clothes. Several
models tackle this challenge by extracting clothes-independent features.
However, the performance of these models is still lower for the
clothes-changing setting compared to the same-clothes setting in which the
person appears with the same clothes in the labeled gallery. As
clothing-related features are often dominant features in the data, we propose a
new process we call Gallery Enrichment, to utilize these features. In this
process, we enrich the original gallery by adding to it query samples based on
their face features, using an unsupervised algorithm. Additionally, we show
that combining ReID and face feature extraction modules alongside an enriched
gallery results in a more accurate ReID model, even for query samples with new
outfits that do not include faces. Moreover, we claim that existing CC-ReID
benchmarks do not fully represent real-world scenarios, and propose a new video
CC-ReID dataset called 42Street, based on a theater play that includes crowded
scenes and numerous clothes changes. When applied to multiple ReID models, our
method (GEFF) achieves an average improvement of 33.5% and 6.7% in the Top-1
clothes-changing metric on the PRCC and LTCC benchmarks. Combined with the
latest ReID models, our method achieves new SOTA results on the PRCC, LTCC,
CCVID, LaST and VC-Clothes benchmarks and the proposed 42Street dataset.
- Abstract(参考訳): 着替え再識別(cc-reid)問題において、ある人の問合せサンプルが与えられた場合、その人物が異なる服装で現れるラベル付きギャラリーに基づいて正しい同一性を決定することが目的である。
いくつかのモデルは、衣服に依存しない特徴を抽出することでこの課題に取り組む。
しかし、これらのモデルの性能は、ラベル付きギャラリーで同じ服装で現れる同じ衣料品設定に比べて、着替え設定では依然として低い。
衣料関連機能はしばしばデータに支配的な機能であるため、これらの機能を利用するためにギャラリーエンリッチメントと呼ばれる新しいプロセスを提案する。
このプロセスでは、教師なしアルゴリズムを用いて、顔の特徴に基づいてクエリーサンプルを追加することで、オリジナルのギャラリーを強化します。
さらに,ReIDと顔特徴抽出モジュールを複合ギャラリーと組み合わせることで,より正確なReIDモデルが得られることを示す。
さらに,既存のCC-ReIDベンチマークは実世界のシナリオを完全に表現していないと主張し,混み合ったシーンと多数の衣服の変化を含む劇場劇に基づく,42Streetと呼ばれる新しいCC-ReIDデータセットを提案する。
複数のReIDモデルに適用すると、PRCCおよびLTCCベンチマークのTop-1服飾変化指標において平均33.5%と6.7%の改善が達成される。
提案手法は,最新のReIDモデルと組み合わせて,PRCC,LTCC,CCVID,LaST,VC-Clothesベンチマーク,42Streetデータセットの新たなSOTA結果を得る。
関連論文リスト
- DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID [69.70281727931048]
本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成します。
DLCR生成データを用いて,先行技術(SOTA)法であるCALをトレーニングすることにより,トップ1の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-11T18:28:33Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - COCAS: A Large-Scale Clothes Changing Person Dataset for
Re-identification [88.79807574669294]
ClOthes Ch Anging Person Set (COCAS) という新しい大規模再識別子・ベンチマークを構築した。
COCASには5,266人の身体像が62,382枚含まれている。
そこでは,服のテンプレートと,別の衣服を撮影する人物画像の両方を含む,着替え問題に対する新たな人物再識別子設定を提案する。
論文 参考訳(メタデータ) (2020-05-16T03:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。