論文の概要: Semantic-guided Pixel Sampling for Cloth-Changing Person
Re-identification
- arxiv url: http://arxiv.org/abs/2107.11522v1
- Date: Sat, 24 Jul 2021 03:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:24:50.084202
- Title: Semantic-guided Pixel Sampling for Cloth-Changing Person
Re-identification
- Title(参考訳): 衣服交換者再識別のための意味誘導型画素サンプリング
- Authors: Xiujun Shu, Ge Li, Xiao Wang, Weijian Ruan, Qi Tian
- Abstract要約: 本稿では,テクスチャ変更者のre-IDタスクに対する意味誘導型画素サンプリング手法を提案する。
まず、歩行者の上着とズボンを認識し、次に他の歩行者からピクセルをサンプリングしてランダムに変更します。
本手法は65.8%をランク1精度で達成し, 従来手法よりも大きなマージンで優れていた。
- 参考スコア(独自算出の注目度): 80.70419698308064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloth-changing person re-identification (re-ID) is a new rising research
topic that aims at retrieving pedestrians whose clothes are changed. This task
is quite challenging and has not been fully studied to date. Current works
mainly focus on body shape or contour sketch, but they are not robust enough
due to view and posture variations. The key to this task is to exploit
cloth-irrelevant cues. This paper proposes a semantic-guided pixel sampling
approach for the cloth-changing person re-ID task. We do not explicitly define
which feature to extract but force the model to automatically learn
cloth-irrelevant cues. Specifically, we first recognize the pedestrian's upper
clothes and pants, then randomly change them by sampling pixels from other
pedestrians. The changed samples retain the identity labels but exchange the
pixels of clothes or pants among different pedestrians. Besides, we adopt a
loss function to constrain the learned features to keep consistent before and
after changes. In this way, the model is forced to learn cues that are
irrelevant to upper clothes and pants. We conduct extensive experiments on the
latest released PRCC dataset. Our method achieved 65.8% on Rank1 accuracy,
which outperforms previous methods with a large margin. The code is available
at https://github.com/shuxjweb/pixel_sampling.git.
- Abstract(参考訳): 着替え者の再識別(re-id)は、着替えられた歩行者を検索することを目的とした新たな研究テーマである。
この課題は非常に困難であり、現在まで完全には研究されていない。
現在の作品は主に体型や輪郭スケッチに焦点が当てられているが、視界や姿勢の変化によって十分に頑丈ではない。
この作業の鍵は布の無関係な手がかりを利用することである。
本稿では,布交換者再識別タスクのための意味的誘導画素サンプリング手法を提案する。
我々は、どの特徴を抽出するかを明確に定義していないが、モデルに布の無関係な手がかりを自動的に学習させるよう強制する。
具体的には、まず歩行者の上着とズボンを認識し、他の歩行者のピクセルをサンプリングしてランダムに変更する。
変更されたサンプルは識別ラベルを保持するが、異なる歩行者の間で衣服やズボンのピクセルを交換する。
さらに、私たちは、学習した機能を変更前後で一貫性を保つために、損失関数を採用しています。
このように、モデルは上着やズボンとは無関係な手がかりを学ぶことを余儀なくされる。
最新のPRCCデータセットについて広範な実験を行った。
本手法は65.8%をランク1精度で達成し, 従来手法よりも高い差を示した。
コードはhttps://github.com/shuxjweb/pixel_sampling.gitで入手できる。
関連論文リスト
- Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - A Semantic-aware Attention and Visual Shielding Network for
Cloth-changing Person Re-identification [29.026249268566303]
衣服交換者再識別(ReID)は,衣服が変更された歩行者を回収することを目的とした,新たな研究課題である。
異なる服装の人間の外見は大きなバリエーションを示すため、差別的かつ堅牢な特徴表現を抽出する既存のアプローチは非常に困難である。
本研究は, 着替え型ReIDのための新しい意味認識・視覚遮蔽ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T05:38:37Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Multigranular Visual-Semantic Embedding for Cloth-Changing Person
Re-identification [38.7806002518266]
本研究は, 布を交換するReIDのための新しいビジュアル・セマンティック・埋め込み・アルゴリズム(MVSE)を提案する。
衣服の変化のある人を完全に表現するために、多粒性特徴表現スキーム(MGR)を採用し、その後、布脱感ネットワーク(CDN)を設計する。
人的属性の整合に使用される視覚意味情報を得るために,部分意味整合ネットワーク(PSA)を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:14:44Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - Person Re-identification by Contour Sketch under Moderate Clothing
Change [95.83034113646657]
異なるカメラビューにまたがる歩行者画像のマッチングプロセスである人物再認識は、視覚的監視において重要な課題である。
この作品では、衣服の下でのリメイドを「クロス・クロス・パーソン・リメイド」と呼ぶ。
クロス・クローズ・パーソナリティのための大規模なデータセットが欠如しているため、221のアイデンティティから33698の画像からなる新しいデータセットをコントリビュートする。
論文 参考訳(メタデータ) (2020-02-06T15:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。