論文の概要: Multi-Attribute Enhancement Network for Person Search
- arxiv url: http://arxiv.org/abs/2102.07968v1
- Date: Tue, 16 Feb 2021 05:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:04:44.466811
- Title: Multi-Attribute Enhancement Network for Person Search
- Title(参考訳): 人物検索のためのマルチ属性強化ネットワーク
- Authors: Lequan Chen, Wei Xie, Zhigang Tu, Yaping Tao, Xinming Wang
- Abstract要約: 人物探索は、人物検出と人物再識別(Re-ID)の問題を共同で解くように設計されている
視覚的な文字属性は、Re-IDで検索されたが、Person Searchで無視されたクエリ人物を取得する上で重要な役割を果たします。
本稿では,属性学習をモデルに導入し,属性機能を検索タスクに活用する。
- 参考スコア(独自算出の注目度): 7.85420914437147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person Search is designed to jointly solve the problems of Person Detection
and Person Re-identification (Re-ID), in which the target person will be
located in a large number of uncut images. Over the past few years, Person
Search based on deep learning has made great progress. Visual character
attributes play a key role in retrieving the query person, which has been
explored in Re-ID but has been ignored in Person Search. So, we introduce
attribute learning into the model, allowing the use of attribute features for
retrieval task. Specifically, we propose a simple and effective model called
Multi-Attribute Enhancement (MAE) which introduces attribute tags to learn
local features. In addition to learning the global representation of
pedestrians, it also learns the local representation, and combines the two
aspects to learn robust features to promote the search performance.
Additionally, we verify the effectiveness of our module on the existing
benchmark dataset, CUHK-SYSU and PRW. Ultimately, our model achieves
state-of-the-art among end-to-end methods, especially reaching 91.8% of mAP and
93.0% of rank-1 on CUHK-SYSU. Codes and models are available at
https://github.com/chenlq123/MAE.
- Abstract(参考訳): Person Searchは、対象者を多数の未切断画像に配置するRe-ID(Person Detection and Person Re-identification)の問題を共同で解決するように設計されている。
過去数年間、ディープラーニングに基づく人物検索は大きな進歩を遂げてきた。
視覚的な文字属性は、Re-IDで検索されたが、Person Searchで無視されたクエリ人物を取得する上で重要な役割を果たします。
そこで本研究では,属性学習をモデルに導入し,属性特徴を検索タスクに活用する。
具体的には,局所的な特徴を学習するために属性タグを導入するマルチ属性拡張(mae)と呼ばれるシンプルで効果的なモデルを提案する。
歩行者のグローバルな表現を学ぶことに加えて、局所的な表現を学習し、2つの側面を組み合わせて堅牢な特徴を学習し、検索パフォーマンスを促進する。
さらに,既存のベンチマークデータセットであるCUHK-SYSUとPRWにおけるモジュールの有効性を検証する。
特にCUHK-SYSUでは,mAPの91.8%,ランク1の93.0%に達している。
コードとモデルはhttps://github.com/chenlq123/MAEで入手できる。
関連論文リスト
- CLEAR: Cross-Transformers with Pre-trained Language Model is All you need for Person Attribute Recognition and Retrieval [0.18749305679160366]
属性認識と属性ベースの検索は、人間中心の2つのコアタスクである。
個人属性認識のための頑健なクロストランスフォーマーネットワークを導入する。
また、アダプタのいくつかの追加パラメータのみをトレーニングするための効果的なトレーニング戦略も導入しています。
CLEARは、両方のタスクに対して最先端のパフォーマンスまたは競合的な結果を達成する。
論文 参考訳(メタデータ) (2024-03-10T07:31:06Z) - Multi-Prompts Learning with Cross-Modal Alignment for Attribute-based
Person Re-Identification [18.01407937934588]
本稿では,素早い学習と言語モデルに基づくMP-ReID(Multi-Prompts ReID)という新しいフレームワークを提案する。
MP-ReIDは、クエリイメージを記述するために、多様で情報的、即応的な文を幻覚させることを学ぶ。
明示的なプロンプトは、ChatGPTやVQAモデルといった世代モデルをアンサンブルすることで得られる。
論文 参考訳(メタデータ) (2023-12-28T03:00:19Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Weakly Supervised Person Search with Region Siamese Networks [65.76237418040071]
教師付き学習は人検索において支配的であるが、境界ボックスとアイデンティティの詳細なラベル付けが必要である。
私たちは、バウンディングボックスアノテーションのみが利用できる弱い教師付き設定を提示します。
我々のモデルはCUHK-SYSUベンチマークで87.1%のランク1と86.0%のmAPを達成している。
論文 参考訳(メタデータ) (2021-09-13T16:33:27Z) - Video Person Re-identification using Attribute-enhanced Features [49.68392018281875]
本稿では属性支援型ビデオ人物Re-IDのためのAttribute Salience Assisted Network (ASA-Net) という新しいネットワークアーキテクチャを提案する。
対象を背景からよりよく分離するために,ハイレベルな属性ではなく,中程度の属性から視覚的注意を学習することを提案する。
論文 参考訳(メタデータ) (2021-08-16T07:41:27Z) - Integrating Coarse Granularity Part-level Features with Supervised
Global-level Features for Person Re-identification [3.4758712821739426]
パートレベルの人物Re-IDネットワーク(CGPN)は、全体像と部分像の両方に教師付きグローバル機能を統合する。
CGPNは、全体像と部分像の両方に有効な身体部分の特徴を抽出することを学ぶ。
Market-1501、DukeMTMC-reID、CUHK03といった3つのRe-IDデータセットでトレーニングされた単一モデル。
論文 参考訳(メタデータ) (2020-10-15T11:49:20Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - Pedestrian Attribute Recognition: A Survey [26.939872088531036]
歩行者属性認識(PAR)の背景について紹介する。
一般的なデータセットや評価基準を含む既存のベンチマークを導入する。
歩行者属性を考慮に入れ、より良い性能を実現するアプリケーションをいくつか紹介する。
論文 参考訳(メタデータ) (2019-01-22T17:16:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。