論文の概要: DiP: Learning Discriminative Implicit Parts for Person Re-Identification
- arxiv url: http://arxiv.org/abs/2212.13906v1
- Date: Sat, 24 Dec 2022 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 15:36:17.559153
- Title: DiP: Learning Discriminative Implicit Parts for Person Re-Identification
- Title(参考訳): DiP: 個人再識別のための識別不能部分の学習
- Authors: Dengjie Li, Siyu Chen, Yujie Zhong, Fan Liang, Lin Ma
- Abstract要約: 我々は,明示的な身体部分から分離された識別的暗黙的部分(DiP)を学習することを提案する。
また、各DiPに対して幾何学的解釈を与えるために、新しい暗黙的位置を提案する。
提案手法は,複数人のReIDベンチマーク上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 18.89539401924382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In person re-identification (ReID) tasks, many works explore the learning of
part features to improve the performance over global image features. Existing
methods extract part features in an explicit manner, by either using a
hand-designed image division or keypoints obtained with external visual
systems. In this work, we propose to learn Discriminative implicit Parts (DiPs)
which are decoupled from explicit body parts. Therefore, DiPs can learn to
extract any discriminative features that can benefit in distinguishing
identities, which is beyond predefined body parts (such as accessories).
Moreover, we propose a novel implicit position to give a geometric
interpretation for each DiP. The implicit position can also serve as a learning
signal to encourage DiPs to be more position-equivariant with the identity in
the image. Lastly, a set of attributes and auxiliary losses are introduced to
further improve the learning of DiPs. Extensive experiments show that the
proposed method achieves state-of-the-art performance on multiple person ReID
benchmarks.
- Abstract(参考訳): 個人再識別(ReID)タスクでは、グローバルな画像機能よりもパフォーマンスを向上させるために、部分的特徴の学習を探索する作業が数多く行われている。
既存の方法は、手動設計の画像分割または外部視覚システムで得られたキーポイントを用いて、部品特徴を明示的な方法で抽出する。
本研究では,明示的な身体部分から分離された識別的暗黙的部分(DiP)を学習することを提案する。
したがって、ディップは、予め定義された身体部分(アクセサリーなど)を超えて、アイデンティティの識別に役立つ任意の識別特徴を抽出できる。
さらに,各DIPに対して幾何学的解釈を与える新しい暗黙的位置を提案する。
暗黙的な位置は、画像内のアイデンティティとより同じ位置にあるようにDiPを奨励する学習信号としても機能する。
最後に、DiPの学習をさらに改善するために、属性セットと補助的損失を導入する。
広範な実験により,提案手法が複数人のreidベンチマークにおいて最先端の性能を実現することが示された。
関連論文リスト
- Unsupervised Part Discovery via Dual Representation Alignment [31.100169532078095]
オブジェクト部分は、様々な下流タスクにおいて重要な中間表現として機能します。
これまでの研究によると、Vision Transformerはラベルなしでインスタンスレベルの注意を学習できる。
本稿では,新しいパラダイムを用いた非教師なし部分特異的アテンション学習を実現する。
論文 参考訳(メタデータ) (2024-08-15T12:11:20Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Dynamic Template Initialization for Part-Aware Person Re-ID [0.640781528166787]
空間アテンションベースのDynamic Partテンプレート初期化モジュール。
背骨の部分的な特徴は、多様な人体部分のテンプレートを抽出するために用いられる。
全体的、排他的、部分的なRe-IDタスクベンチマークに関するテスト。
論文 参考訳(メタデータ) (2022-08-24T11:20:48Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - PGGANet: Pose Guided Graph Attention Network for Person
Re-identification [0.0]
人物再識別(ReID)は、異なるカメラで撮影された画像から人物を回収することを目的としている。
局所的な特徴と人像のグローバルな特徴を併用することで、人物の検索に堅牢な特徴表現を与えることができることが証明されている。
本研究では,ポーズガイド付きグラフアテンションネットワーク,グローバル機能のための1つのブランチ,中粒体機能のための1つのブランチ,粒状キーポイント機能のための1つのブランチからなるマルチブランチアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T09:47:39Z) - Pose-Guided Feature Learning with Knowledge Distillation for Occluded
Person Re-Identification [137.8810152620818]
PGFL-KD (Pose-Guided Feature Learning with Knowledge Distillation) というネットワークを提案する。
PGFL-KDは、メインブランチ(MB)と2つのポーズ誘導ブランチ(ieno)、フォアグラウンド強化ブランチ(FEB)、ボディ部分セマンティクス整列ブランチ(SAB)から構成される。
閉鎖型,部分的,包括型 ReID タスクの実験は,提案したネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-07-31T03:34:27Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。