論文の概要: ES-Net: Erasing Salient Parts to Learn More in Re-Identification
- arxiv url: http://arxiv.org/abs/2103.05918v1
- Date: Wed, 10 Mar 2021 08:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:54:59.922633
- Title: ES-Net: Erasing Salient Parts to Learn More in Re-Identification
- Title(参考訳): ES-Net:再識別でもっと学ぶための好意的な部分
- Authors: Dong Shen, Shuai Zhao, Jinming Hu, Hao Feng, Deng Cai, Xiaofei He
- Abstract要約: 画像中の有意領域を消去することで包括的特徴を学習するための新しいネットワーク「Easing-Salient Net (ES-Net)」を提案する。
ES-Netは3つのPerson re-IDベンチマークと2つのVine re-IDベンチマークで最先端の手法より優れています。
- 参考スコア(独自算出の注目度): 46.624740579314924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an instance-level recognition problem, re-identification (re-ID) requires
models to capture diverse features. However, with continuous training, re-ID
models pay more and more attention to the salient areas. As a result, the model
may only focus on few small regions with salient representations and ignore
other important information. This phenomenon leads to inferior performance,
especially when models are evaluated on small inter-identity variation data. In
this paper, we propose a novel network, Erasing-Salient Net (ES-Net), to learn
comprehensive features by erasing the salient areas in an image. ES-Net
proposes a novel method to locate the salient areas by the confidence of
objects and erases them efficiently in a training batch. Meanwhile, to mitigate
the over-erasing problem, this paper uses a trainable pooling layer P-pooling
that generalizes global max and global average pooling. Experiments are
conducted on two specific re-identification tasks (i.e., Person re-ID, Vehicle
re-ID). Our ES-Net outperforms state-of-the-art methods on three Person re-ID
benchmarks and two Vehicle re-ID benchmarks. Specifically, mAP / Rank-1 rate:
88.6% / 95.7% on Market1501, 78.8% / 89.2% on DuckMTMC-reID, 57.3% / 80.9% on
MSMT17, 81.9% / 97.0% on Veri-776, respectively. Rank-1 / Rank-5 rate: 83.6% /
96.9% on VehicleID (Small), 79.9% / 93.5% on VehicleID (Medium), 76.9% / 90.7%
on VehicleID (Large), respectively. Moreover, the visualized salient areas show
human-interpretable visual explanations for the ranking results.
- Abstract(参考訳): インスタンスレベルの認識問題として、再識別(re-ID)には多様な機能をキャプチャするモデルが必要である。
しかし、継続的なトレーニングでは、再IDモデルは、過度の領域にますます注意を払っています。
結果として、モデルは少数の小さな領域のみにのみ注目し、他の重要な情報を無視することができる。
この現象は、特に小さな個体間変動データでモデルを評価する場合、性能を低下させる。
本論文では, 画像中のサラエント領域を消去し, 包括的な特徴を学習するためのネットワークであるES-Netを提案する。
ES-Netは、オブジェクトの信頼度を基準とし、トレーニングバッチ内で効率よくそれらを消去する新しい手法を提案する。
一方, オーバーラッシング問題を緩和するために, グローバルマックスとグローバル平均プールを一般化するトレーニング可能なプール層Pプーリングを用いる。
実験は2つの特定の再識別タスク(Person re-ID, Vehicle re-ID)で行われる。
ES-Netは3つのPerson re-IDベンチマークと2つのVine re-IDベンチマークで最先端の手法より優れています。
具体的には、mAP / Rank-1レート:Market1501の88.6% / 95.7%、DuckMTMC-reIDの78.8% / 89.2%、MSMT17の57.3% / 80.9%、Veri-776の81.9% / 97.0%。
ランク1/ランク5: 83.6% / 96.9% on VehicleID (Small)、79.9% / 93.5% on VehicleID (Medium)、76.9% / 90.7% on VehicleID (Large)。
さらに,視認されたサルエント領域は,ランキング結果に対する人間解釈可能な視覚的な説明を示す。
関連論文リスト
- AaP-ReID: Improved Attention-Aware Person Re-identification [2.5761958263376745]
AaP-ReIDは、ResNetベースのアーキテクチャにチャネルの注意を組み込む、より効果的な人物ReIDの手法である。
提案手法は,Channel-Wise Attention Bottleneckブロックを組み込んで,特徴マップにおけるChannel-Wise Attention Bottleneckブロックの重要性を動的に調整することで特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-27T16:54:38Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets [53.047542904329866]
マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-06T10:16:18Z) - Learning Instance-level Spatial-Temporal Patterns for Person
Re-identification [80.43222559182072]
本稿では,Re-IDの精度を向上させるために,新しいインスタンスレベルおよび時空間ディスタングル型Re-ID法を提案する。
提案フレームワークでは,移動方向などのパーソナライズされた情報を探索空間をさらに狭めるため,明示的に検討している。
提案手法は市場1501で90.8%,DukeMTMC-reIDで89.1%,ベースライン82.2%,72.7%から改善した。
論文 参考訳(メタデータ) (2021-07-31T07:44:47Z) - Multi-Attribute Enhancement Network for Person Search [7.85420914437147]
人物探索は、人物検出と人物再識別(Re-ID)の問題を共同で解くように設計されている
視覚的な文字属性は、Re-IDで検索されたが、Person Searchで無視されたクエリ人物を取得する上で重要な役割を果たします。
本稿では,属性学習をモデルに導入し,属性機能を検索タスクに活用する。
論文 参考訳(メタデータ) (2021-02-16T05:43:47Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Grafted network for person re-identification [14.372506245952383]
畳み込みニューラルネットワークは、人物再同定(re-ID)において顕著な効果を示した
本稿では,高精度根茎と軽量シオンをグラフトした新しいグラフトネットワーク(GraftedNet)を提案する。
実験の結果、GraftedNetはランキング1で93.02%、85.3%、76.2%、mAPで81.6%、74.7%、71.6%を達成した。
論文 参考訳(メタデータ) (2020-06-02T22:33:44Z) - VMRFANet:View-Specific Multi-Receptive Field Attention Network for
Person Re-identification [3.1498833540989413]
本稿では,様々な大きさのフィルタを用いて,情報画素に注目するネットワークを支援するMRFA(Multi-Receptive Field attention)モジュールを提案する。
本稿では,ビュー条件の変動に対処するためのアテンションモジュールを誘導するビュー固有メカニズムを提案する。
本手法は,市場におけるランク-1/mAPの95.5% / 88.1%,デュークMTMC-reIDの88.9% / 80.0%,CUHK03ラベル付きデータセットの81.1% / 78.8%,CUHK03検出データセットの78.9% / 75.3%を達成している。
論文 参考訳(メタデータ) (2020-01-21T06:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。