論文の概要: $OC^4-ReID$: Occluded Cloth-Changing Person Re-Identification
- arxiv url: http://arxiv.org/abs/2403.08557v3
- Date: Tue, 3 Sep 2024 13:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 19:15:46.332951
- Title: $OC^4-ReID$: Occluded Cloth-Changing Person Re-Identification
- Title(参考訳): OC^4-ReID$:Occluded Cloth-Changing Person Redentification
- Authors: Zhihao Chen, Yiyuan Ge, Ziyang Wang, Jiaju Kang, Mingya Zhang,
- Abstract要約: Occluded Cloth-Changing Person Re-Identification(OC4-ReID$)は、衣服の変化と閉塞に関する2つの課題に対処する。
我々は,Occ-LTCCとOcc-PRCCという2つの新しいデータセットを構築した。
Train-Test Micro Granularity Screeningモジュールを組み込んだ新しいベンチマークが$OC4-ReID$で提案されている。
- 参考スコア(独自算出の注目度): 8.054546048450414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study of Cloth-Changing Person Re-identification (CC-ReID) focuses on retrieving specific pedestrians when their clothing has changed, typically under the assumption that the entire pedestrian images are visible. Pedestrian images in real-world scenarios, however, are often partially obscured by obstacles, presenting a significant challenge to existing CC-ReID systems. In this paper, we introduce a more challenging task termed Occluded Cloth-Changing Person Re-Identification ($OC^4-ReID$), which simultaneously addresses two challenges of clothing changes and occlusion. Concretely, we construct two new datasets, Occ-LTCC and Occ-PRCC, based on original CC-ReID datasets to include random occlusions of key pedestrians components (e.g., head, torso). Moreover, a novel benchmark is proposed for $OC^4-ReID$ incorporating a Train-Test Micro Granularity Screening ($T^2MGS$) module to mitigate the influence of occlusion and proposing a Part-Robust Triplet (PRT) loss for partial features learning. Comprehensive experiments on the proposed datasets, as well as on two CC-ReID benchmark datasets demonstrate the superior performance of proposed method against other state-of-the-art methods. The codes and datasets are available at: https://github.com/1024AILab/OC4-ReID.
- Abstract(参考訳): CC-ReID(CC-Changing Person Re-identification)の研究は、通常、歩行者画像全体が見えるという前提の下で、衣服が変わったときに特定の歩行者を回収することに焦点を当てている。
しかし、現実のシナリオにおける歩行者画像は、しばしば障害物によって部分的に曖昧にされ、既存のCC-ReIDシステムにとって重要な課題である。
本稿では,服の着替えと隠蔽という2つの課題を同時に解決する,Occluded Cloth-Changing Person Re-Identification(OC^4-ReID$)という課題を紹介する。
具体的には,Occ-LTCCとOcc-PRCCという2つの新しいデータセットを構築する。
さらに、OC^4-ReID$にTrain-Test Micro Granularity Screening(T^2MGS$)モジュールを組み込むことで、閉塞の影響を緩和し、部分的特徴学習のためのPart-Robust Triplet(PRT)損失を提案する。
提案したデータセットおよび2つのCC-ReIDベンチマークデータセットに関する総合的な実験は、提案手法の他の最先端手法に対する優れた性能を示す。
コードとデータセットは、https://github.com/1024AILab/OC4-ReID.comで公開されている。
関連論文リスト
- Keypoint Promptable Re-Identification [76.31113049256375]
Occluded Person Re-Identification (ReID) は、その外見に基づいて隠蔽された個人をマッチングするメトリクス学習タスクである。
本稿では、入力バウンディングボックスを意味キーポイントの集合で明示的に補完する新しいReID問題の定式化であるKeypoint Promptable ReID(KPR)を紹介する。
我々は4つの人気のあるReIDベンチマークのためのカスタムキーポイントラベルをリリースした。人物検索の実験だけでなく、ポーズトラッキングの実験も、我々の手法が従来の最先端手法を体系的に超越していることを示す。
論文 参考訳(メタデータ) (2024-07-25T15:20:58Z) - Features Reconstruction Disentanglement Cloth-Changing Person Re-Identification [1.5703073293718952]
衣服交換者再識別(CC-ReID)は、特定の歩行者を衣服交換シナリオで回収することを目的としている。
主な課題は、衣服に関する機能と衣服に関する無関係な機能を切り離すことである。
本稿では, 衣服関連・衣服関連の特徴を分離する機能であるFRD-ReIDを提案する。
論文 参考訳(メタデータ) (2024-07-15T13:08:42Z) - Content and Salient Semantics Collaboration for Cloth-Changing Person Re-Identification [74.10897798660314]
衣服を交換する人の再識別は、重複しないカメラで同じ人の衣服の変化を認識することを目的としている。
本稿では、並列間セマンティクスの相互作用と洗練を容易にするコンテンツ・サリアンセマンティクス協調フレームワークを提案する。
我々のフレームワークはシンプルだが有効であり、重要な設計はセマンティックス・マイニング・アンド・リファインメント(SMR)モジュールである。
論文 参考訳(メタデータ) (2024-05-26T15:17:28Z) - Identity-aware Dual-constraint Network for Cloth-Changing Person Re-identification [13.709863134725335]
CC-ReID(CC-Changing Person Re-Identification)は、歩行者が着替えを行うより現実的な監視シナリオにおいて、対象者を正確に識別することを目的としている。
大きな進歩にもかかわらず、既存のCC-ReIDデータセットの限られた布質変化トレーニングサンプルは、モデルが布質非関連の特徴を適切に学習することを妨げている。
本稿では,CC-ReIDタスクのためのID-Aware Dual-Constraint Network (IDNet)を提案する。
論文 参考訳(メタデータ) (2024-03-13T05:46:36Z) - Clothes-Invariant Feature Learning by Causal Intervention for
Clothes-Changing Person Re-identification [118.23912884472794]
衣服変化者再識別(CC-ReID)における衣服不変の特徴抽出の重要性
衣服と身元には強い相関関係があることを論じ, 衣服に関係のない特徴を抽出するために, 共通可能性に基づくReID法P(Y|X) を制限している。
衣服不変の特徴学習を実現するために,新しい因果的衣服不変学習法(CCIL)を提案する。
論文 参考訳(メタデータ) (2023-05-10T13:48:24Z) - Identity-Guided Collaborative Learning for Cloth-Changing Person
Reidentification [29.200286257496714]
着替え型ReIDのための新しいID誘導協調学習手法(IGCL)を提案する。
まず,衣服情報による干渉を合理的に低減するために,新しい衣服注意ストリームを設計する。
次に,人間のセマンティック・アテンションとボディー・ジグソー・ストリームを提案し,人間のセマンティック・情報を強調し,同じアイデンティティの異なるポーズをシミュレートする。
第3に、歩行者のアイデンティティ強化ストリームがさらに提案され、アイデンティティの重要性を高め、より好ましいアイデンティティロバストな特徴を抽出する。
論文 参考訳(メタデータ) (2023-04-10T06:05:54Z) - Unsupervised Text Deidentification [101.2219634341714]
個人識別情報を漏洩する単語を隠蔽する教師なしの識別手法を提案する。
K匿名性に基づくプライバシによって動機づけられた私たちは、最小の再識別ランクを保証するリアクションを生成します。
論文 参考訳(メタデータ) (2022-10-20T18:54:39Z) - Identity-Sensitive Knowledge Propagation for Cloth-Changing Person
Re-identification [17.588668735411783]
衣服交換者再識別(CC-ReID)は、衣服の変化による人物の身元を一致させることを目的としている。
典型的なバイオメトリックスに基づくCC-ReID法は、人間の生体特性から布に関係のない特徴を学習するために、面倒なポーズや身体部分の推定器を必要とする。
本稿では,CC-ReIDのための効果的なアイデンティティ・センシティブな知識伝達フレームワーク(DeSKPro)を提案する。
我々のフレームワークは最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-08-25T12:01:49Z) - Towards Privacy-Preserving Person Re-identification via Person Identify
Shift [19.212691296927165]
人物再識別(ReID)は、ReID法で使用される歩行者画像のプライバシーを維持する必要がある。
本稿では、人物識別シフト(PIS)と呼ばれる、人物ReID用に明示的に設計された新しい非識別手法を提案する。
PISは、それぞれの歩行者画像を現在の身元から別の身元にシフトさせ、その結果、相対的な身元を保存している。
論文 参考訳(メタデータ) (2022-07-15T06:58:41Z) - RealGait: Gait Recognition for Person Re-Identification [79.67088297584762]
我々は,既存の映像人物の再識別課題からシルエットを抽出し,制約のない方法で歩く1,404人からなる新たな歩行データセットを構築した。
以上の結果から、実際の監視シナリオにおける歩行による認識は実現可能であり、その基盤となる歩行パターンが、実際にビデオの人物認識が機能する真の理由である可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-13T06:30:56Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。