論文の概要: Learning Shape Representations for Clothing Variations in Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2003.07340v1
- Date: Mon, 16 Mar 2020 17:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 03:42:01.274893
- Title: Learning Shape Representations for Clothing Variations in Person
Re-Identification
- Title(参考訳): 人物再同定における服装変化の学習形状表現
- Authors: Yu-Jhe Li, Zhengyi Luo, Xinshuo Weng, Kris M. Kitani
- Abstract要約: 人物再識別(re-ID)は、異なるカメラで撮影された複数の画像に含まれる同一人物のインスタンスを認識することを目的としている。
衣服の色やパターンの影響を受けずに体型特徴表現を生成できる新しい表現学習モデルを提案する。
Case-Netは、相手の学習と特徴の絡み合いを通じて、身体の形にのみ依存するアイデンティティの表現を学習する。
- 参考スコア(独自算出の注目度): 34.559050607889816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (re-ID) aims to recognize instances of the same
person contained in multiple images taken across different cameras. Existing
methods for re-ID tend to rely heavily on the assumption that both query and
gallery images of the same person have the same clothing. Unfortunately, this
assumption may not hold for datasets captured over long periods of time (e.g.,
weeks, months or years). To tackle the re-ID problem in the context of clothing
changes, we propose a novel representation learning model which is able to
generate a body shape feature representation without being affected by clothing
color or patterns. We call our model the Color Agnostic Shape Extraction
Network (CASE-Net). CASE-Net learns a representation of identity that depends
only on body shape via adversarial learning and feature disentanglement. Due to
the lack of large-scale re-ID datasets which contain clothing changes for the
same person, we propose two synthetic datasets for evaluation. We create a
rendered dataset SMPL-reID with different clothes patterns and a synthesized
dataset Div-Market with different clothing color to simulate two types of
clothing changes. The quantitative and qualitative results across 5 datasets
(SMPL-reID, Div-Market, two benchmark re-ID datasets, a cross-modality re-ID
dataset) confirm the robustness and superiority of our approach against several
state-of-the-art approaches
- Abstract(参考訳): 人物再識別(re-ID)は、異なるカメラで撮影された複数の画像に含まれる同一人物のインスタンスを認識することを目的としている。
既存のre-IDの方法は、同一人物のクエリ画像とギャラリー画像の両方が同じ衣服を持っているという仮定に大きく依存する傾向がある。
残念ながら、この仮定は、長い時間(例えば、週、月、年など)でキャプチャされたデータセットには当てはまらないかもしれない。
衣料変化の文脈での再認識問題に取り組むため,衣服の色やパターンに影響されることなく体型特徴表現を生成できる新しい表現学習モデルを提案する。
我々は、我々のモデルをColor Agnostic Shape extract Network (CASE-Net)と呼ぶ。
case-netは、敵対的な学習と特徴の絡み合いを通じて体型のみに依存するアイデンティティの表現を学ぶ。
衣服の着替えを含む大規模なre-IDデータセットがないため,評価のための2つの合成データセットを提案する。
着衣パターンが異なるレンダリングデータセットSMPL-reIDと着衣色が異なる合成データセットDiv-Marketを作成し、2種類の着衣変化をシミュレートする。
5つのデータセット(smpl-reid, div-market, 2つのベンチマークre-idデータセット, クロスモダリティre-idデータセット)における定量的・質的結果から, 最先端アプローチに対する我々のアプローチの堅牢性と優越性を確認した。
関連論文リスト
- DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID [69.70281727931048]
本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成します。
DLCR生成データを用いて,先行技術(SOTA)法であるCALをトレーニングすることにより,トップ1の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-11T18:28:33Z) - Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation [2.1756081703276]
長期の人物再同定は、長期にわたるカメラ間で個人をマッチングすることを目的としている。
我々は,LRe-IDのためのコントラスト的衣服とポース拡張フレームワークであるCCPAを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:16:34Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。