論文の概要: ReFace: Improving Clothes-Changing Re-Identification With Face Features
- arxiv url: http://arxiv.org/abs/2211.13807v1
- Date: Thu, 24 Nov 2022 21:41:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:56:03.881272
- Title: ReFace: Improving Clothes-Changing Re-Identification With Face Features
- Title(参考訳): 振り返り:顔特徴による着替え再確認の改善
- Authors: Daniel Arkushin, Bar Cohen, Shmuel Peleg, Ohad Fried
- Abstract要約: 本稿では,既存のReIDモデルを用いて外観関連特徴を抽出する手法を提案する。
着替え設定下において、複数の関心を持つ人が再識別するアプリケーションに、我々の手法をどのように利用できるかを示す。
- 参考スコア(独自算出の注目度): 8.368053967836643
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Person re-identification (ReID) has been an active research field for many
years. Despite that, models addressing this problem tend to perform poorly when
the task is to re-identify the same people over a prolonged time, due to
appearance changes such as different clothes and hairstyles. In this work, we
introduce a new method that takes full advantage of the ability of existing
ReID models to extract appearance-related features and combines it with a face
feature extraction model to achieve new state-of-the-art results, both on
image-based and video-based benchmarks. Moreover, we show how our method could
be used for an application in which multiple people of interest, under
clothes-changing settings, should be re-identified given an unseen video and a
limited amount of labeled data. We claim that current ReID benchmarks do not
represent such real-world scenarios, and publish a new dataset, 42Street, based
on a theater play as an example of such an application. We show that our
proposed method outperforms existing models also on this dataset while using
only pre-trained modules and without any further training.
- Abstract(参考訳): 人物再識別(ReID)は長年にわたり活発な研究分野である。
それにもかかわらず、この問題に対処するモデルは、着物や髪型などの外見の変化により、長い時間をかけて同一人物を再識別する作業を行う場合、パフォーマンスが悪くなる傾向にある。
本稿では,既存のreidモデルの外観関連特徴抽出機能を最大限に活用し,顔特徴抽出モデルと組み合わせることで,画像ベースおよびビデオベースのベンチマークで新たな最先端結果を得る新しい手法を提案する。
さらに,本手法を,着替え設定下において複数の興味を持つ人が,未確認ビデオと限られたラベル付きデータから再識別するアプリケーションにどのように利用することができるかを示す。
現在のReIDベンチマークはそのような現実のシナリオを表現していないと主張しており、そのようなアプリケーションの例としてシアタープレイに基づいた新しいデータセット42Streetを公開しています。
提案手法は,事前学習されたモジュールのみを用いながら,トレーニングを行なわずに既存のモデルを上回ることを示す。
関連論文リスト
- DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID [69.70281727931048]
本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成します。
DLCR生成データを用いて,先行技術(SOTA)法であるCALをトレーニングすることにより,トップ1の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-11T18:28:33Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - COCAS: A Large-Scale Clothes Changing Person Dataset for
Re-identification [88.79807574669294]
ClOthes Ch Anging Person Set (COCAS) という新しい大規模再識別子・ベンチマークを構築した。
COCASには5,266人の身体像が62,382枚含まれている。
そこでは,服のテンプレートと,別の衣服を撮影する人物画像の両方を含む,着替え問題に対する新たな人物再識別子設定を提案する。
論文 参考訳(メタデータ) (2020-05-16T03:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。