論文の概要: Multi-Attribute Enhancement Network for Person Search
- arxiv url: http://arxiv.org/abs/2102.07968v1
- Date: Tue, 16 Feb 2021 05:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:04:44.466811
- Title: Multi-Attribute Enhancement Network for Person Search
- Title(参考訳): 人物検索のためのマルチ属性強化ネットワーク
- Authors: Lequan Chen, Wei Xie, Zhigang Tu, Yaping Tao, Xinming Wang
- Abstract要約: 人物探索は、人物検出と人物再識別(Re-ID)の問題を共同で解くように設計されている
視覚的な文字属性は、Re-IDで検索されたが、Person Searchで無視されたクエリ人物を取得する上で重要な役割を果たします。
本稿では,属性学習をモデルに導入し,属性機能を検索タスクに活用する。
- 参考スコア(独自算出の注目度): 7.85420914437147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person Search is designed to jointly solve the problems of Person Detection
and Person Re-identification (Re-ID), in which the target person will be
located in a large number of uncut images. Over the past few years, Person
Search based on deep learning has made great progress. Visual character
attributes play a key role in retrieving the query person, which has been
explored in Re-ID but has been ignored in Person Search. So, we introduce
attribute learning into the model, allowing the use of attribute features for
retrieval task. Specifically, we propose a simple and effective model called
Multi-Attribute Enhancement (MAE) which introduces attribute tags to learn
local features. In addition to learning the global representation of
pedestrians, it also learns the local representation, and combines the two
aspects to learn robust features to promote the search performance.
Additionally, we verify the effectiveness of our module on the existing
benchmark dataset, CUHK-SYSU and PRW. Ultimately, our model achieves
state-of-the-art among end-to-end methods, especially reaching 91.8% of mAP and
93.0% of rank-1 on CUHK-SYSU. Codes and models are available at
https://github.com/chenlq123/MAE.
- Abstract(参考訳): Person Searchは、対象者を多数の未切断画像に配置するRe-ID(Person Detection and Person Re-identification)の問題を共同で解決するように設計されている。
過去数年間、ディープラーニングに基づく人物検索は大きな進歩を遂げてきた。
視覚的な文字属性は、Re-IDで検索されたが、Person Searchで無視されたクエリ人物を取得する上で重要な役割を果たします。
そこで本研究では,属性学習をモデルに導入し,属性特徴を検索タスクに活用する。
具体的には,局所的な特徴を学習するために属性タグを導入するマルチ属性拡張(mae)と呼ばれるシンプルで効果的なモデルを提案する。
歩行者のグローバルな表現を学ぶことに加えて、局所的な表現を学習し、2つの側面を組み合わせて堅牢な特徴を学習し、検索パフォーマンスを促進する。
さらに,既存のベンチマークデータセットであるCUHK-SYSUとPRWにおけるモジュールの有効性を検証する。
特にCUHK-SYSUでは,mAPの91.8%,ランク1の93.0%に達している。
コードとモデルはhttps://github.com/chenlq123/MAEで入手できる。
関連論文リスト
- Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - PGGANet: Pose Guided Graph Attention Network for Person
Re-identification [0.0]
人物再識別(ReID)は、異なるカメラで撮影された画像から人物を回収することを目的としている。
局所的な特徴と人像のグローバルな特徴を併用することで、人物の検索に堅牢な特徴表現を与えることができることが証明されている。
本研究では,ポーズガイド付きグラフアテンションネットワーク,グローバル機能のための1つのブランチ,中粒体機能のための1つのブランチ,粒状キーポイント機能のための1つのブランチからなるマルチブランチアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T09:47:39Z) - FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation [22.691709684780292]
提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
論文 参考訳(メタデータ) (2021-11-28T13:50:20Z) - Weakly Supervised Person Search with Region Siamese Networks [65.76237418040071]
教師付き学習は人検索において支配的であるが、境界ボックスとアイデンティティの詳細なラベル付けが必要である。
私たちは、バウンディングボックスアノテーションのみが利用できる弱い教師付き設定を提示します。
我々のモデルはCUHK-SYSUベンチマークで87.1%のランク1と86.0%のmAPを達成している。
論文 参考訳(メタデータ) (2021-09-13T16:33:27Z) - Video Person Re-identification using Attribute-enhanced Features [49.68392018281875]
本稿では属性支援型ビデオ人物Re-IDのためのAttribute Salience Assisted Network (ASA-Net) という新しいネットワークアーキテクチャを提案する。
対象を背景からよりよく分離するために,ハイレベルな属性ではなく,中程度の属性から視覚的注意を学習することを提案する。
論文 参考訳(メタデータ) (2021-08-16T07:41:27Z) - ES-Net: Erasing Salient Parts to Learn More in Re-Identification [46.624740579314924]
画像中の有意領域を消去することで包括的特徴を学習するための新しいネットワーク「Easing-Salient Net (ES-Net)」を提案する。
ES-Netは3つのPerson re-IDベンチマークと2つのVine re-IDベンチマークで最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-03-10T08:19:46Z) - Integrating Coarse Granularity Part-level Features with Supervised
Global-level Features for Person Re-identification [3.4758712821739426]
パートレベルの人物Re-IDネットワーク(CGPN)は、全体像と部分像の両方に教師付きグローバル機能を統合する。
CGPNは、全体像と部分像の両方に有効な身体部分の特徴を抽出することを学ぶ。
Market-1501、DukeMTMC-reID、CUHK03といった3つのRe-IDデータセットでトレーニングされた単一モデル。
論文 参考訳(メタデータ) (2020-10-15T11:49:20Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。