論文の概要: Learning Disentangled Representation Implicitly via Transformer for
Occluded Person Re-Identification
- arxiv url: http://arxiv.org/abs/2107.02380v1
- Date: Tue, 6 Jul 2021 04:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 01:09:36.394013
- Title: Learning Disentangled Representation Implicitly via Transformer for
Occluded Person Re-Identification
- Title(参考訳): 人物再同定のためのトランスフォーマによる非交叉表現の学習
- Authors: Mengxi Jia, Xinhua Cheng, Shijian Lu and Jian Zhang
- Abstract要約: DRL-Netは、厳格な人物画像アライメントや追加の監督を必要とすることなく、隠蔽されたre-IDを処理する表現学習ネットワークである。
定義されていないセマンティックコンポーネントの表現を自動的に切り離すことで、画像の類似度を測定する。
DRL-Netは、一貫して優れたre-ID性能を達成し、Occluded-DukeMTMCに対して大きなマージンで最先端の性能を上回る。
- 参考スコア(独自算出の注目度): 35.40162083252931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person re-identification (re-ID) under various occlusions has been a
long-standing challenge as person images with different types of occlusions
often suffer from misalignment in image matching and ranking. Most existing
methods tackle this challenge by aligning spatial features of body parts
according to external semantic cues or feature similarities but this alignment
approach is complicated and sensitive to noises. We design DRL-Net, a
disentangled representation learning network that handles occluded re-ID
without requiring strict person image alignment or any additional supervision.
Leveraging transformer architectures, DRL-Net achieves alignment-free re-ID via
global reasoning of local features of occluded person images. It measures image
similarity by automatically disentangling the representation of undefined
semantic components, e.g., human body parts or obstacles, under the guidance of
semantic preference object queries in the transformer. In addition, we design a
decorrelation constraint in the transformer decoder and impose it over object
queries for better focus on different semantic components. To better eliminate
interference from occlusions, we design a contrast feature learning technique
(CFL) for better separation of occlusion features and discriminative ID
features. Extensive experiments over occluded and holistic re-ID benchmarks
(Occluded-DukeMTMC, Market1501 and DukeMTMC) show that the DRL-Net achieves
superior re-ID performance consistently and outperforms the state-of-the-art by
large margins for Occluded-DukeMTMC.
- Abstract(参考訳): 様々な咬合下での人物再同定(re-id)は、異なる咬合形態の人物画像が画像マッチングやランキングの誤認に苦しむため、長年の課題であった。
既存の手法の多くは、外部の意味的手がかりや特徴的類似性に応じて身体部位の空間的特徴を調整することでこの課題に取り組むが、このアライメントアプローチは複雑でノイズに敏感である。
我々は、厳密な人物像のアライメントや追加の監督を必要とせず、隠蔽されたre-IDを処理する非絡み合った表現学習ネットワークDRL-Netを設計する。
DRL-Netはトランスフォーマーアーキテクチャを活用することで、隠蔽された人物画像の局所的特徴のグローバルな推論を通じてアライメントフリーなre-IDを実現する。
変換器内のセマンティック・プライオリティ・オブジェクト・クエリーのガイダンスの下で、人間の体の一部や障害などの未定義のセマンティック・コンポーネントの表現を自動的に切り離すことによって画像の類似度を測定する。
さらに,変換器デコーダのデコリレーション制約を設計し,オブジェクトクエリにデコリレーションを課し,異なるセマンティックコンポーネントにもっと焦点を当てる。
咬合の干渉を効果的に除去するために,咬合特徴と識別ID特徴の分離を改善するコントラスト特徴学習技術(CFL)を設計する。
Occluded-DukeMTMC、Market1501、DukeMTMCといった包括的かつ包括的なre-IDベンチマークに対する大規模な実験は、DRL-Netが優れたre-ID性能を一貫して達成し、Occluded-DukeMTMCに対する大きなマージンによって最先端の状態を上回っていることを示している。
関連論文リスト
- Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification [2.552131151698595]
我々はトランスフォーマーに基づく人物識別フレームワークであるSSSC-TransReIDを組み合わせた新しい自己監督・監督手法を提案した。
我々は、ネガティブなサンプルや追加の事前学習なしに、人物の再識別のための特徴表現を強化することができる自己教師付きコントラスト学習ブランチを設計した。
提案モデルでは, 平均平均精度(mAP) とランク1の精度において, 最先端のReID手法よりも優れたRe-ID性能が得られ, 高いマージンで性能が向上する。
論文 参考訳(メタデータ) (2024-10-21T03:17:25Z) - Robust Ensemble Person Re-Identification via Orthogonal Fusion with Occlusion Handling [4.431087385310259]
排除は、個人再識別(ReID)における大きな課題の1つとして残されている。
本稿では,CNN と Transformer アーキテクチャを併用し,ロバストな特徴表現を生成する深層アンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2024-03-29T18:38:59Z) - Dynamic Patch-aware Enrichment Transformer for Occluded Person
Re-Identification [14.219232629274186]
DPEFormer(Dynamic Patch-aware Enrichment Transformer)と呼ばれるエンドツーエンドのソリューションを提案する。
このモデルは,人体情報と隠蔽情報を自動的かつ動的に識別する。
DPSM と DPEFormer 全体が識別ラベルのみを用いて効果的に学習できることを保証するため,本手法では,実効性を有する Occlusion Augmentation (ROA) 戦略も提案する。
論文 参考訳(メタデータ) (2024-02-16T03:53:30Z) - Part Representation Learning with Teacher-Student Decoder for Occluded
Person Re-identification [65.63180725319906]
本稿では,隠蔽者ReIDのためのTSD(Teacher-Student Decoder)フレームワークを提案する。
提案するTSDは,Parsing-aware Teacher Decoder (PTD) と標準学生デコーダ (SSD) から構成される。
論文 参考訳(メタデータ) (2023-12-15T13:54:48Z) - Divided Attention: Unsupervised Multi-Object Discovery with Contextually
Separated Slots [78.23772771485635]
本研究では,視覚領域を独立した移動領域に分割し,基礎的な真実や監督を伴わずに訓練する手法を提案する。
Slot Attentionに基づく逆条件エンコーダ・デコーダアーキテクチャで構成されている。
論文 参考訳(メタデータ) (2023-04-04T00:26:13Z) - Feature Completion Transformer for Occluded Person Re-identification [25.159974510754992]
咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
論文 参考訳(メタデータ) (2023-03-03T01:12:57Z) - Learning Feature Recovery Transformer for Occluded Person
Re-identification [71.18476220969647]
本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
論文 参考訳(メタデータ) (2023-01-05T02:36:16Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。