論文の概要: Deep Attention Aware Feature Learning for Person Re-Identification
- arxiv url: http://arxiv.org/abs/2003.00517v1
- Date: Sun, 1 Mar 2020 16:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:46:05.817124
- Title: Deep Attention Aware Feature Learning for Person Re-Identification
- Title(参考訳): 人物再同定のための注意深い特徴学習
- Authors: Yifan Chen, Han Wang, Xiaolu Sun, Bin Fan, Chu Tang
- Abstract要約: 本稿では,人物のReIDネットワークに注意学習を付加目的として組み込むことを提案する。
我々は2つの典型的なネットワーク(TriNetとBag of Tricks)でその性能をテストし、5つの広く使われているデータセットで大幅な性能改善を観測した。
- 参考スコア(独自算出の注目度): 22.107332426681072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual attention has proven to be effective in improving the performance of
person re-identification. Most existing methods apply visual attention
heuristically by learning an additional attention map to re-weight the feature
maps for person re-identification. However, this kind of methods inevitably
increase the model complexity and inference time. In this paper, we propose to
incorporate the attention learning as additional objectives in a person ReID
network without changing the original structure, thus maintain the same
inference time and model size. Two kinds of attentions have been considered to
make the learned feature maps being aware of the person and related body parts
respectively. Globally, a holistic attention branch (HAB) makes the feature
maps obtained by backbone focus on persons so as to alleviate the influence of
background. Locally, a partial attention branch (PAB) makes the extracted
features be decoupled into several groups and be separately responsible for
different body parts (i.e., keypoints), thus increasing the robustness to pose
variation and partial occlusion. These two kinds of attentions are universal
and can be incorporated into existing ReID networks. We have tested its
performance on two typical networks (TriNet and Bag of Tricks) and observed
significant performance improvement on five widely used datasets.
- Abstract(参考訳): 視覚的注意は、人物の再識別のパフォーマンスを改善するのに有効であることが証明されている。
既存のほとんどの方法は、人物の再識別のために特徴マップを再重み付けするために追加の注意マップを学習することで視覚的注意をヒューリスティックに適用する。
しかし、この種の手法は必然的にモデルの複雑さと推論時間を増加させる。
本稿では,注意学習を対人reidネットワークにおける追加目的として取り入れ,元の構造を変化させることなく,同一の推論時間とモデルサイズを維持することを提案する。
学習した特徴マップは,人物と関連する身体部位をそれぞれ認識させるため,2種類の注意が払われてきた。
グローバルに、全体的注意分枝(HAB)は、背景の影響を軽減するために、バックボーンが人に焦点を当てた特徴マップを作成する。
局所的に、部分注意分岐(pab)は、抽出された特徴を複数のグループに分離し、異なる身体部位(すなわちキーポイント)に別々に責任を負わせることにより、ポーズ変化や部分的咬合に対する堅牢性を高める。
これらの2種類の注意は普遍的であり、既存のReIDネットワークに組み込むことができる。
我々は2つの典型的なネットワーク(TriNetとBag of Tricks)でその性能をテストし、5つの広く使われているデータセットで大幅な性能改善を観測した。
関連論文リスト
- Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Dual Cross-Attention Learning for Fine-Grained Visual Categorization and
Object Re-Identification [19.957957963417414]
本稿では,自己意図学習と協調する2つのクロスアテンション学習(DCAL)アルゴリズムを提案する。
まず,グローバル・ローカル・クロスアテンション(GLCA)を提案する。
第2に、画像ペア間の相互作用を確立するために、ペアワイズ・クロスアテンション(PWCA)を提案する。
論文 参考訳(メタデータ) (2022-05-04T16:14:26Z) - Your "Attention" Deserves Attention: A Self-Diversified Multi-Channel
Attention for Facial Action Analysis [12.544285462327839]
本稿では,ニューラルアテンションマップの表現力と集中力を高めるためのコンパクトモデルを提案する。
提案手法は,AU検出のための2つのベンチマークデータベース (BP4D, DISFA) と顔認識のための4つのデータベース (CK+, MMI, BU-3DFE, BP4D+) で評価した。
最先端の手法に比べて優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-03-23T17:29:51Z) - PGGANet: Pose Guided Graph Attention Network for Person
Re-identification [0.0]
人物再識別(ReID)は、異なるカメラで撮影された画像から人物を回収することを目的としている。
局所的な特徴と人像のグローバルな特徴を併用することで、人物の検索に堅牢な特徴表現を与えることができることが証明されている。
本研究では,ポーズガイド付きグラフアテンションネットワーク,グローバル機能のための1つのブランチ,中粒体機能のための1つのブランチ,粒状キーポイント機能のための1つのブランチからなるマルチブランチアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T09:47:39Z) - Distract Your Attention: Multi-head Cross Attention Network for Facial
Expression Recognition [4.500212131331687]
本稿では,DAN(Distract your Attention Network)と呼ばれる新しい表情認識ネットワークを提案する。
本手法は2つの重要な観察結果に基づいており、複数のクラスが本質的に類似した顔の外観を共有しており、その違いは微妙である可能性がある。
特徴クラスタリングネットワーク(FCN)、マルチヘッドクロスアテンションネットワーク(MAN)、アテンションフュージョンネットワーク(AFN)の3つの主要コンポーネントでDANを提案する。
論文 参考訳(メタデータ) (2021-09-15T13:15:54Z) - Video Person Re-identification using Attribute-enhanced Features [49.68392018281875]
本稿では属性支援型ビデオ人物Re-IDのためのAttribute Salience Assisted Network (ASA-Net) という新しいネットワークアーキテクチャを提案する。
対象を背景からよりよく分離するために,ハイレベルな属性ではなく,中程度の属性から視覚的注意を学習することを提案する。
論文 参考訳(メタデータ) (2021-08-16T07:41:27Z) - Pose-Guided Feature Learning with Knowledge Distillation for Occluded
Person Re-Identification [137.8810152620818]
PGFL-KD (Pose-Guided Feature Learning with Knowledge Distillation) というネットワークを提案する。
PGFL-KDは、メインブランチ(MB)と2つのポーズ誘導ブランチ(ieno)、フォアグラウンド強化ブランチ(FEB)、ボディ部分セマンティクス整列ブランチ(SAB)から構成される。
閉鎖型,部分的,包括型 ReID タスクの実験は,提案したネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-07-31T03:34:27Z) - Looking Twice for Partial Clues: Weakly-supervised Part-Mentored
Attention Network for Vehicle Re-Identification [18.539658212171062]
PMANet(Part-Mentored Attention Network)とPMNet(Part-Mentored Network)は、グローバルかつローカルな特徴集約を指導する。
提案手法は,VabyIDではCMC@1が平均2.63%,VeRi776では2.2%,最新の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-07-17T12:19:12Z) - Robust Person Re-Identification through Contextual Mutual Boosting [77.1976737965566]
本研究では,歩行者の局地化を目的としたコンテキスト相互ブースティングネットワーク(CMBN)を提案する。
歩行者をローカライズし、文脈情報と統計的推測を効果的に活用することで特徴を再検討する。
ベンチマークの実験は、最先端のアーキテクチャと比較してアーキテクチャの優位性を示している。
論文 参考訳(メタデータ) (2020-09-16T06:33:35Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。