論文の概要: Person Re-identification via Attention Pyramid
- arxiv url: http://arxiv.org/abs/2108.05340v1
- Date: Wed, 11 Aug 2021 17:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:40:51.842927
- Title: Person Re-identification via Attention Pyramid
- Title(参考訳): 注意ピラミッドによる人物識別
- Authors: Guangyi Chen, Tianpei Gu, Jiwen Lu, Jin-An Bao, and Jie Zhou
- Abstract要約: 人物再識別のための注意ピラミッド手法を提案する。
我々の注目ピラミッドは、異なるスケールで人の注意が変化するため、マルチスケールで注意領域を活用します。
本手法は, Market-1501, DukeMTMC, CUHK03, MSMT17 の4つの大規模人物識別ベンチマークを用いて評価した。
- 参考スコア(独自算出の注目度): 74.80544921378998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an attention pyramid method for person
re-identification. Unlike conventional attention-based methods which only learn
a global attention map, our attention pyramid exploits the attention regions in
a multi-scale manner because human attention varies with different scales. Our
attention pyramid imitates the process of human visual perception which tends
to notice the foreground person over the cluttered background, and further
focus on the specific color of the shirt with close observation. Specifically,
we describe our attention pyramid by a "split-attend-merge-stack" principle. We
first split the features into multiple local parts and learn the corresponding
attentions. Then, we merge local attentions and stack these merged attentions
with the residual connection as an attention pyramid. The proposed attention
pyramid is a lightweight plug-and-play module that can be applied to
off-the-shelf models. We implement our attention pyramid method in two
different attention mechanisms including channel-wise attention and spatial
attention. We evaluate our method on four largescale person re-identification
benchmarks including Market-1501, DukeMTMC, CUHK03, and MSMT17. Experimental
results demonstrate the superiority of our method, which outperforms the
state-of-the-art methods by a large margin with limited computational cost.
- Abstract(参考訳): 本稿では,人物再識別のための注意ピラミッド手法を提案する。
グローバルアテンションマップのみを学習する従来のアテンションベースの手法とは異なり、私たちのアテンションピラミッドは、人間のアテンションが異なるスケールで異なるため、マルチスケールでアテンション領域を利用する。
我々の注目ピラミッドは、ぼろぼろした背景に前景の人物に気づく傾向にある人間の視覚知覚の過程を模倣し、観察されたシャツの特定の色に焦点を合わせます。
具体的には,注意ピラミッドを"split-attend-merge-stack"の原理で記述する。
まず、機能を複数のローカル部分に分割し、対応する注意点を学習します。
次に、局所的な注意をマージし、これらの統合された注意と残りの接続を注意ピラミッドとして積み重ねる。
提案された注目ピラミッドは、市販モデルに適用可能な軽量なプラグアンドプレイモジュールである。
本手法は,チャネル毎の注意と空間的注意の2つの異なる注意機構において,注意ピラミッド法を実装した。
本手法は, Market-1501, DukeMTMC, CUHK03, MSMT17 の4つの大規模人物識別ベンチマークを用いて評価した。
実験の結果, 計算コストが低く, 最先端の手法を高いマージンで上回る, 優れた手法が得られた。
関連論文リスト
- Elliptical Attention [1.7597562616011944]
Pairwise dot-product self-attentionは、言語やビジョンにおける様々なアプリケーションで最先端のパフォーマンスを実現するトランスフォーマーの成功の鍵である。
本稿では,マハラノビス距離計を用いて注意重みの計算を行い,その基礎となる特徴空間を文脈的関連性の高い方向に拡張することを提案する。
論文 参考訳(メタデータ) (2024-06-19T18:38:11Z) - Your "Attention" Deserves Attention: A Self-Diversified Multi-Channel
Attention for Facial Action Analysis [12.544285462327839]
本稿では,ニューラルアテンションマップの表現力と集中力を高めるためのコンパクトモデルを提案する。
提案手法は,AU検出のための2つのベンチマークデータベース (BP4D, DISFA) と顔認識のための4つのデータベース (CK+, MMI, BU-3DFE, BP4D+) で評価した。
最先端の手法に比べて優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-03-23T17:29:51Z) - Boosting Crowd Counting via Multifaceted Attention [109.89185492364386]
大規模なバリエーションは、しばしば群衆画像の中に存在する。
CNNの固定サイズ畳み込みカーネルも、最近の視覚変換器の固定サイズアテンションも、このような変動には対処できない。
局所空間関係符号化におけるトランスフォーマーモデルを改善するための多面的注意ネットワーク(MAN)を提案する。
論文 参考訳(メタデータ) (2022-03-05T01:36:43Z) - Deep Rank-Consistent Pyramid Model for Enhanced Crowd Counting [48.15210212256114]
そこで我々は,大規模未ラベル画像を用いた観客数増大を目的としたDREAM(Deep Rank-consistEnt pyrAmid Model)を提案する。
さらに, トレーニング目的のために4000枚の画像を含む, 未ラベルのクラウドカウントデータセット, FUDAN-UCC を新たに収集した。
論文 参考訳(メタデータ) (2022-01-13T07:25:06Z) - Multi-Level Attention for Unsupervised Person Re-Identification [9.529435737056179]
教師なしの人物再識別において、多頭自尊心で表される注意モジュールは、非地上真実の条件下での注意の拡散に悩まされる。
画素レベルのアテンションモジュールを設計し,マルチヘッドの自己注意に制約を与える。
個人再識別データの識別対象がすべて歩行者である特性については,ドメインレベルのアテンションモジュールを設計する。
論文 参考訳(メタデータ) (2022-01-10T02:47:06Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Detection of Deepfake Videos Using Long Distance Attention [73.6659488380372]
既存のほとんどの検出方法は、問題をバニラ二項分類問題として扱う。
本稿では,偽顔と実顔の相違が非常に微妙であるため,特にきめ細かな分類問題として扱われる。
大域的な視点で空間的・時間的偽の痕跡を捉えるための2つの要素を持つ時空間モデルを提案する。
論文 参考訳(メタデータ) (2021-06-24T08:33:32Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Telling BERT's full story: from Local Attention to Global Aggregation [14.92157586545743]
トランスアーキテクチャにおける自己注意型ヘッドの挙動を深く検討する。
いずれにせよ,注目分布は,注目頭部の局所行動に関する洞察を与えることができることを示す。
論文 参考訳(メタデータ) (2020-04-10T01:36:41Z) - Deep Attention Aware Feature Learning for Person Re-Identification [22.107332426681072]
本稿では,人物のReIDネットワークに注意学習を付加目的として組み込むことを提案する。
我々は2つの典型的なネットワーク(TriNetとBag of Tricks)でその性能をテストし、5つの広く使われているデータセットで大幅な性能改善を観測した。
論文 参考訳(メタデータ) (2020-03-01T16:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。