論文の概要: AaP-ReID: Improved Attention-Aware Person Re-identification
- arxiv url: http://arxiv.org/abs/2309.15780v1
- Date: Wed, 27 Sep 2023 16:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 12:42:36.285430
- Title: AaP-ReID: Improved Attention-Aware Person Re-identification
- Title(参考訳): aap-reid:注意意識の強化
- Authors: Vipin Gautam, Shitala Prasad and Sharad Sinha
- Abstract要約: AaP-ReIDは、ResNetベースのアーキテクチャにチャネルの注意を組み込む、より効果的な人物ReIDの手法である。
提案手法は,Channel-Wise Attention Bottleneckブロックを組み込んで,特徴マップにおけるChannel-Wise Attention Bottleneckブロックの重要性を動的に調整することで特徴を識別することができる。
- 参考スコア(独自算出の注目度): 2.5761958263376745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person re-identification (ReID) is a well-known problem in the field of
computer vision. The primary objective is to identify a specific individual
within a gallery of images. However, this task is challenging due to various
factors, such as pose variations, illumination changes, obstructions, and the
presence ofconfusing backgrounds. Existing ReID methods often fail to capture
discriminative features (e.g., head, shoes, backpacks) and instead capture
irrelevant features when the target is occluded. Motivated by the success of
part-based and attention-based ReID methods, we improve AlignedReID++ and
present AaP-ReID, a more effective method for person ReID that incorporates
channel-wise attention into a ResNet-based architecture. Our method
incorporates the Channel-Wise Attention Bottleneck (CWAbottleneck) block and
can learn discriminating features by dynamically adjusting the importance
ofeach channel in the feature maps. We evaluated Aap-ReID on three benchmark
datasets: Market-1501, DukeMTMC-reID, and CUHK03. When compared with
state-of-the-art person ReID methods, we achieve competitive results with
rank-1 accuracies of 95.6% on Market-1501, 90.6% on DukeMTMC-reID, and 82.4% on
CUHK03.
- Abstract(参考訳): 人物再識別(ReID)はコンピュータビジョンの分野でよく知られた問題である。
主な目的は、画像ギャラリー内の特定の個人を特定することである。
しかし、ポーズのバリエーション、照明の変化、障害、背景の曖昧さなど、様々な要因により、この課題は困難である。
既存のReID法は、しばしば差別的特徴(例えば、ヘッド、靴、バックパック)を捉えるのに失敗し、その代わりに標的が閉鎖されたときに無関係な特徴を捕獲する。
パートベースおよびアテンションベースのReID手法の成功により,AlignedReID++とAaP-ReIDを改良した。
本手法では,cwabottleneckブロックを用い,特徴マップにおける各チャネルの重要性を動的に調整することにより識別特徴を学習する。
我々はAap-ReIDを Market-1501, DukeMTMC-reID, CUHK03 の3つのベンチマークデータセットで評価した。
最先端のReID法と比較すると、市場1501で95.6%、デュークMTMC-reIDで90.6%、CUHK03で82.4%のランク1のアキュラシーで競合する結果が得られる。
関連論文リスト
- Instruct-ReID: A Multi-purpose Person Re-identification Task with
Instructions [64.55715112644562]
本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する命令-ReIDタスクを提案する。
我々の命令-ReIDはより一般的なReID設定であり、既存の6つのReIDタスクを異なる命令を設計することで特別なケースとして見ることができる。
実験結果から,OmniReIDベンチマークで微調整なしでトレーニングした多目的ReIDモデルでは, Market1501, MSMT17, CUHK03, 従来のReIDでは+0.5%, +0.6%, +7.7%mAP, PRCCでは+6.4%, +7.1%, +11.2%mAPの改善が可能であった。
論文 参考訳(メタデータ) (2023-06-13T03:25:33Z) - A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets [53.047542904329866]
マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-06T10:16:18Z) - Learning Instance-level Spatial-Temporal Patterns for Person
Re-identification [80.43222559182072]
本稿では,Re-IDの精度を向上させるために,新しいインスタンスレベルおよび時空間ディスタングル型Re-ID法を提案する。
提案フレームワークでは,移動方向などのパーソナライズされた情報を探索空間をさらに狭めるため,明示的に検討している。
提案手法は市場1501で90.8%,DukeMTMC-reIDで89.1%,ベースライン82.2%,72.7%から改善した。
論文 参考訳(メタデータ) (2021-07-31T07:44:47Z) - ES-Net: Erasing Salient Parts to Learn More in Re-Identification [46.624740579314924]
画像中の有意領域を消去することで包括的特徴を学習するための新しいネットワーク「Easing-Salient Net (ES-Net)」を提案する。
ES-Netは3つのPerson re-IDベンチマークと2つのVine re-IDベンチマークで最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-03-10T08:19:46Z) - Multi-Attribute Enhancement Network for Person Search [7.85420914437147]
人物探索は、人物検出と人物再識別(Re-ID)の問題を共同で解くように設計されている
視覚的な文字属性は、Re-IDで検索されたが、Person Searchで無視されたクエリ人物を取得する上で重要な役割を果たします。
本稿では,属性学習をモデルに導入し,属性機能を検索タスクに活用する。
論文 参考訳(メタデータ) (2021-02-16T05:43:47Z) - Lightweight Multi-Branch Network for Person Re-Identification [6.353193172884524]
本稿では,資源効率の高いOSNetバックボーン上に構築されたマルチブランチアーキテクチャにおいて,グローバル,パートベース,チャネル機能を組み合わせた軽量ネットワークを提案する。
トレーニング手法と設計選択をうまく組み合わせることで, CUHK03ラベル付き, CUHK03検出, Market-1501で85.1% mAP / 87.2% rank1, 82.4% mAP / 84.9% rank1, 91.5% mAP / 96.3% rank1の最先端結果が得られる。
論文 参考訳(メタデータ) (2021-01-26T13:28:46Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z) - Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking [83.48804199140758]
システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
論文 参考訳(メタデータ) (2020-04-08T18:48:29Z) - VMRFANet:View-Specific Multi-Receptive Field Attention Network for
Person Re-identification [3.1498833540989413]
本稿では,様々な大きさのフィルタを用いて,情報画素に注目するネットワークを支援するMRFA(Multi-Receptive Field attention)モジュールを提案する。
本稿では,ビュー条件の変動に対処するためのアテンションモジュールを誘導するビュー固有メカニズムを提案する。
本手法は,市場におけるランク-1/mAPの95.5% / 88.1%,デュークMTMC-reIDの88.9% / 80.0%,CUHK03ラベル付きデータセットの81.1% / 78.8%,CUHK03検出データセットの78.9% / 75.3%を達成している。
論文 参考訳(メタデータ) (2020-01-21T06:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。