論文の概要: Body Part-Based Representation Learning for Occluded Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2211.03679v1
- Date: Mon, 7 Nov 2022 16:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 17:38:12.430743
- Title: Body Part-Based Representation Learning for Occluded Person
Re-Identification
- Title(参考訳): 人物再認識のための身体部分に基づく表現学習
- Authors: Vladimir Somers and Christophe De Vleeschouwer and Alexandre Alahi
- Abstract要約: 隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
- 参考スコア(独自算出の注目度): 102.27216744301356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Occluded person re-identification (ReID) is a person retrieval task which
aims at matching occluded person images with holistic ones. For addressing
occluded ReID, part-based methods have been shown beneficial as they offer
fine-grained information and are well suited to represent partially visible
human bodies. However, training a part-based model is a challenging task for
two reasons. Firstly, individual body part appearance is not as discriminative
as global appearance (two distinct IDs might have the same local appearance),
this means standard ReID training objectives using identity labels are not
adapted to local feature learning. Secondly, ReID datasets are not provided
with human topographical annotations. In this work, we propose BPBreID, a body
part-based ReID model for solving the above issues. We first design two modules
for predicting body part attention maps and producing body part-based features
of the ReID target. We then propose GiLt, a novel training scheme for learning
part-based representations that is robust to occlusions and non-discriminative
local appearance. Extensive experiments on popular holistic and occluded
datasets show the effectiveness of our proposed method, which outperforms
state-of-the-art methods by 0.7% mAP and 5.6% rank-1 accuracy on the
challenging Occluded-Duke dataset. Our code is available at
https://github.com/VlSomers/bpbreid.
- Abstract(参考訳): occluded person re-identification(reid)は、被写体画像と全体像のマッチングを目的とした人物検索タスクである。
隠蔽されたReIDに対処するためには、細かな情報を提供し、部分的に見える人間の身体を表現するのに適した部分ベースの方法が有用であることが示されている。
しかしながら、パートベースモデルのトレーニングは2つの理由から難しい作業である。
第一に、個々の身体部分の外観は、グローバルな外観ほど差別的ではない(2つの異なるIDは、同じローカルな外観を持つかもしれない)。
第2に、ReIDデータセットには人間の地形アノテーションがない。
本稿では,上記問題を解決するための体部型reidモデルbpbreidを提案する。
まず,体部注意マップの予測とreidターゲットの体部に基づく特徴生成のためのモジュールを2つ設計した。
そこで我々は,オクルージョンや非差別的局所外観に頑健なパートベース表現を学習するための新しい学習手法であるGiLtを提案する。
一般の包括的および包括的データセットに対する大規模な実験により,提案手法の有効性が示され,課題であるOccluded-Dukeデータセットにおいて,最先端の手法を0.7%mAP,ランク1精度5.6%で上回った。
私たちのコードはhttps://github.com/vlsomers/bpbreidで利用可能です。
関連論文リスト
- Enhancing Long-Term Person Re-Identification Using Global, Local Body
Part, and Head Streams [8.317899947627202]
本稿では,グローバル情報とローカル情報の両方を効果的に学習し,活用する新しいフレームワークを提案する。
提案するフレームワークは、識別分類損失の重み付け和をバックプロパゲートすることによって訓練される。
論文 参考訳(メタデータ) (2024-03-05T11:57:10Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Quality-aware Part Models for Occluded Person Re-identification [77.24920810798505]
咬合は人体再識別(ReID)にとって大きな課題となる
既存のアプローチは一般的に、計算効率とReIDの精度の両面で最適であるように、目に見える身体の部品を推測するための外部ツールに依存している。
閉塞型ReIDのためのQPM(Quality-Aware Part Models)という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:51:09Z) - PGGANet: Pose Guided Graph Attention Network for Person
Re-identification [0.0]
人物再識別(ReID)は、異なるカメラで撮影された画像から人物を回収することを目的としている。
局所的な特徴と人像のグローバルな特徴を併用することで、人物の検索に堅牢な特徴表現を与えることができることが証明されている。
本研究では,ポーズガイド付きグラフアテンションネットワーク,グローバル機能のための1つのブランチ,中粒体機能のための1つのブランチ,粒状キーポイント機能のための1つのブランチからなるマルチブランチアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T09:47:39Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Identity-Guided Human Semantic Parsing for Person Re-Identification [42.705908907250986]
そこで本研究では,人物の身元と身元の両方を画素レベルで特定し,人物の身元を識別する「身元案内型人間意味解析」手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T12:12:27Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。