論文の概要: Feature Completion Transformer for Occluded Person Re-identification
- arxiv url: http://arxiv.org/abs/2303.01656v2
- Date: Sat, 23 Mar 2024 07:45:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 03:58:21.535762
- Title: Feature Completion Transformer for Occluded Person Re-identification
- Title(参考訳): 人物再識別のための特徴補完変換器
- Authors: Tao Wang, Mengyuan Liu, Hong Liu, Wenhao Li, Miaoju Ban, Tuanyu Guo, Yidi Li,
- Abstract要約: 咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
- 参考スコア(独自算出の注目度): 25.159974510754992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Occluded person re-identification (Re-ID) is a challenging problem due to the destruction of occluders. Most existing methods focus on visible human body parts through some prior information. However, when complementary occlusions occur, features in occluded regions can interfere with matching, which affects performance severely. In this paper, different from most previous works that discard the occluded region, we propose a Feature Completion Transformer (FCFormer) to implicitly complement the semantic information of occluded parts in the feature space. Specifically, Occlusion Instance Augmentation (OIA) is proposed to simulates real and diverse occlusion situations on the holistic image. These augmented images not only enrich the amount of occlusion samples in the training set, but also form pairs with the holistic images. Subsequently, a dual-stream architecture with a shared encoder is proposed to learn paired discriminative features from pairs of inputs. Without additional semantic information, an occluded-holistic feature sample-label pair can be automatically created. Then, Feature Completion Decoder (FCD) is designed to complement the features of occluded regions by using learnable tokens to aggregate possible information from self-generated occluded features. Finally, we propose the Cross Hard Triplet (CHT) loss to further bridge the gap between complementing features and extracting features under the same ID. In addition, Feature Completion Consistency (FC$^2$) loss is introduced to help the generated completion feature distribution to be closer to the real holistic feature distribution. Extensive experiments over five challenging datasets demonstrate that the proposed FCFormer achieves superior performance and outperforms the state-of-the-art methods by significant margins on occluded datasets.
- Abstract(参考訳): 咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
既存の方法の多くは、いくつかの事前情報を通して、目に見える人間の身体の部分に焦点を当てている。
しかし、補完的な閉塞が発生すると、閉塞領域の特徴がマッチングに干渉し、パフォーマンスに深刻な影響を及ぼす。
本稿では, 隠蔽領域を廃棄する従来の作業とは違って, 隠蔽部分の意味情報を暗黙的に補完する特徴補完変換器 (FCFormer) を提案する。
具体的には,Occlusion Instance Augmentation (OIA) を提案する。
これらの拡張画像は、トレーニングセット内のオクルージョンサンプルの量を豊かにするだけでなく、全体像とペアを形成する。
その後、共用エンコーダを用いたデュアルストリームアーキテクチャを提案し、ペア入力からペア識別特徴を学習する。
追加のセマンティック情報がないと、隠蔽された全体的特徴のサンプルラベルペアが自動的に作成される。
次に、学習可能なトークンを用いて、自己生成した排他的特徴から可能な情報を集約することにより、排他的領域の特徴を補完する機能補完デコーダ(FCD)を設計する。
最後に,Cross Hard Triplet (CHT) の損失を補足的特徴と同一のIDで特徴を抽出するギャップを埋めるために提案する。
さらに、生成された完了特徴分布が実際の全体的特徴分布に近づくのを助けるために、FC$^2$(Feature Completion Consistency)の損失を導入する。
5つの挑戦的なデータセットに対する大規模な実験は、提案されたFCFormerが優れたパフォーマンスを達成し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法より優れていることを示している。
関連論文リスト
- Imagine the Unseen: Occluded Pedestrian Detection via Adversarial Feature Completion [31.488897675973657]
そこで本稿では,歩行者の特徴を異なる閉塞パターンに整合させるため,閉鎖領域の特徴を完備する。
完成した特徴と実際の完全に見える特徴とのギャップを狭めるために,逆学習法を提案する。
本稿では,CityPersons,Caltech,CrowdHumanの各データセットに関する実験結果について報告する。
論文 参考訳(メタデータ) (2024-05-02T14:20:20Z) - Robust Ensemble Person Re-Identification via Orthogonal Fusion with Occlusion Handling [4.431087385310259]
排除は、個人再識別(ReID)における大きな課題の1つとして残されている。
本稿では,CNN と Transformer アーキテクチャを併用し,ロバストな特徴表現を生成する深層アンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2024-03-29T18:38:59Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Learning Feature Recovery Transformer for Occluded Person
Re-identification [71.18476220969647]
本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
論文 参考訳(メタデータ) (2023-01-05T02:36:16Z) - Dynamic Feature Pruning and Consolidation for Occluded Person
Re-Identification [21.006680330530852]
本研究では, 明示的な人間の構造解析を回避するために, 機能解析・統合(FPC)フレームワークを提案する。
フレームワークは主にスパースエンコーダ、マルチビュー機能mathcingモジュール、フィーチャーコンソリデーションデコーダで構成されている。
提案手法は,Occluded-Dukeデータセットにおいて,少なくとも8.6% mAPと6.0% Rank-1の精度で最新結果より優れる。
論文 参考訳(メタデータ) (2022-11-27T06:18:40Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z) - AdaFuse: Adaptive Multiview Fusion for Accurate Human Pose Estimation in
the Wild [77.43884383743872]
本稿では,アダプティブなマルチビュー融合手法であるAdaFuseについて述べる。
我々は、Human3.6M、Total Capture、CMU Panopticの3つの公開データセットに対するアプローチを広く評価した。
また,大規模合成データセットOcclusion-Personを作成し,咬合関節の数値評価を行う。
論文 参考訳(メタデータ) (2020-10-26T03:19:46Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。