論文の概要: AaP-ReID: Improved Attention-Aware Person Re-identification
- arxiv url: http://arxiv.org/abs/2309.15780v1
- Date: Wed, 27 Sep 2023 16:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 12:42:36.285430
- Title: AaP-ReID: Improved Attention-Aware Person Re-identification
- Title(参考訳): aap-reid:注意意識の強化
- Authors: Vipin Gautam, Shitala Prasad and Sharad Sinha
- Abstract要約: AaP-ReIDは、ResNetベースのアーキテクチャにチャネルの注意を組み込む、より効果的な人物ReIDの手法である。
提案手法は,Channel-Wise Attention Bottleneckブロックを組み込んで,特徴マップにおけるChannel-Wise Attention Bottleneckブロックの重要性を動的に調整することで特徴を識別することができる。
- 参考スコア(独自算出の注目度): 2.5761958263376745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person re-identification (ReID) is a well-known problem in the field of
computer vision. The primary objective is to identify a specific individual
within a gallery of images. However, this task is challenging due to various
factors, such as pose variations, illumination changes, obstructions, and the
presence ofconfusing backgrounds. Existing ReID methods often fail to capture
discriminative features (e.g., head, shoes, backpacks) and instead capture
irrelevant features when the target is occluded. Motivated by the success of
part-based and attention-based ReID methods, we improve AlignedReID++ and
present AaP-ReID, a more effective method for person ReID that incorporates
channel-wise attention into a ResNet-based architecture. Our method
incorporates the Channel-Wise Attention Bottleneck (CWAbottleneck) block and
can learn discriminating features by dynamically adjusting the importance
ofeach channel in the feature maps. We evaluated Aap-ReID on three benchmark
datasets: Market-1501, DukeMTMC-reID, and CUHK03. When compared with
state-of-the-art person ReID methods, we achieve competitive results with
rank-1 accuracies of 95.6% on Market-1501, 90.6% on DukeMTMC-reID, and 82.4% on
CUHK03.
- Abstract(参考訳): 人物再識別(ReID)はコンピュータビジョンの分野でよく知られた問題である。
主な目的は、画像ギャラリー内の特定の個人を特定することである。
しかし、ポーズのバリエーション、照明の変化、障害、背景の曖昧さなど、様々な要因により、この課題は困難である。
既存のReID法は、しばしば差別的特徴(例えば、ヘッド、靴、バックパック)を捉えるのに失敗し、その代わりに標的が閉鎖されたときに無関係な特徴を捕獲する。
パートベースおよびアテンションベースのReID手法の成功により,AlignedReID++とAaP-ReIDを改良した。
本手法では,cwabottleneckブロックを用い,特徴マップにおける各チャネルの重要性を動的に調整することにより識別特徴を学習する。
我々はAap-ReIDを Market-1501, DukeMTMC-reID, CUHK03 の3つのベンチマークデータセットで評価した。
最先端のReID法と比較すると、市場1501で95.6%、デュークMTMC-reIDで90.6%、CUHK03で82.4%のランク1のアキュラシーで競合する結果が得られる。
関連論文リスト
- Multiple Information Prompt Learning for Cloth-Changing Person Re-Identification [17.948263914620238]
布を交換するReIDのためのMIPL(Multiple Information prompt Learning)方式を提案する。
CISモジュールは、衣料品情報を元のRGBイメージ機能から切り離すように設計されている。
The Bio-guided attention (BGA) module is proposed to increase the learning intensity of the model for key information。
論文 参考訳(メタデータ) (2024-11-01T03:08:10Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets [53.047542904329866]
マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-06T10:16:18Z) - Learning Instance-level Spatial-Temporal Patterns for Person
Re-identification [80.43222559182072]
本稿では,Re-IDの精度を向上させるために,新しいインスタンスレベルおよび時空間ディスタングル型Re-ID法を提案する。
提案フレームワークでは,移動方向などのパーソナライズされた情報を探索空間をさらに狭めるため,明示的に検討している。
提案手法は市場1501で90.8%,DukeMTMC-reIDで89.1%,ベースライン82.2%,72.7%から改善した。
論文 参考訳(メタデータ) (2021-07-31T07:44:47Z) - ES-Net: Erasing Salient Parts to Learn More in Re-Identification [46.624740579314924]
画像中の有意領域を消去することで包括的特徴を学習するための新しいネットワーク「Easing-Salient Net (ES-Net)」を提案する。
ES-Netは3つのPerson re-IDベンチマークと2つのVine re-IDベンチマークで最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-03-10T08:19:46Z) - Lightweight Multi-Branch Network for Person Re-Identification [6.353193172884524]
本稿では,資源効率の高いOSNetバックボーン上に構築されたマルチブランチアーキテクチャにおいて,グローバル,パートベース,チャネル機能を組み合わせた軽量ネットワークを提案する。
トレーニング手法と設計選択をうまく組み合わせることで, CUHK03ラベル付き, CUHK03検出, Market-1501で85.1% mAP / 87.2% rank1, 82.4% mAP / 84.9% rank1, 91.5% mAP / 96.3% rank1の最先端結果が得られる。
論文 参考訳(メタデータ) (2021-01-26T13:28:46Z) - Attribute-aware Identity-hard Triplet Loss for Video-based Person
Re-identification [51.110453988705395]
ビデオベースの人物識別(Re-ID)は重要なコンピュータビジョンタスクである。
属性認識型ID-hard Triplet Loss (AITL) と呼ばれる新しいメトリクス学習手法を提案する。
ビデオベースのRe-IDの完全なモデルを実現するために,Attribute-driven Spatio-Temporal Attention (ASTA) 機構を備えたマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T09:15:38Z) - Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking [83.48804199140758]
システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
論文 参考訳(メタデータ) (2020-04-08T18:48:29Z) - VMRFANet:View-Specific Multi-Receptive Field Attention Network for
Person Re-identification [3.1498833540989413]
本稿では,様々な大きさのフィルタを用いて,情報画素に注目するネットワークを支援するMRFA(Multi-Receptive Field attention)モジュールを提案する。
本稿では,ビュー条件の変動に対処するためのアテンションモジュールを誘導するビュー固有メカニズムを提案する。
本手法は,市場におけるランク-1/mAPの95.5% / 88.1%,デュークMTMC-reIDの88.9% / 80.0%,CUHK03ラベル付きデータセットの81.1% / 78.8%,CUHK03検出データセットの78.9% / 75.3%を達成している。
論文 参考訳(メタデータ) (2020-01-21T06:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。