論文の概要: MagnifierNet: Towards Semantic Adversary and Fusion for Person
Re-identification
- arxiv url: http://arxiv.org/abs/2002.10979v4
- Date: Tue, 5 May 2020 02:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:57:02.517279
- Title: MagnifierNet: Towards Semantic Adversary and Fusion for Person
Re-identification
- Title(参考訳): MagnifierNet: 個人再識別のための意味的逆境と融合を目指して
- Authors: Yushi Lan, Yuan Liu, Maoqing Tian, Xinchi Zhou, Xuesen Zhang, Shuai
Yi, Hongsheng Li
- Abstract要約: MagnifierNetはトリプルブランチネットワークで、詳細を全体から部分まで正確にマイニングする。
「セマンティックフュージョンブランチ」は、意味領域情報を逐次融合することにより、無関係なノイズを除去する。
セマンティック多様性損失」は、学習されたセマンティック表現間で重複する重複を取り除く。
- 参考スコア(独自算出の注目度): 38.13515165097505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although person re-identification (ReID) has achieved significant improvement
recently by enforcing part alignment, it is still a challenging task when it
comes to distinguishing visually similar identities or identifying the occluded
person. In these scenarios, magnifying details in each part features and
selectively fusing them together may provide a feasible solution. In this work,
we propose MagnifierNet, a triple-branch network which accurately mines details
from whole to parts. Firstly, the holistic salient features are encoded by a
global branch. Secondly, to enhance detailed representation for each semantic
region, the "Semantic Adversarial Branch" is designed to learn from dynamically
generated semantic-occluded samples during training. Meanwhile, we introduce
"Semantic Fusion Branch" to filter out irrelevant noises by selectively fusing
semantic region information sequentially. To further improve feature diversity,
we introduce a novel loss function "Semantic Diversity Loss" to remove
redundant overlaps across learned semantic representations. State-of-the-art
performance has been achieved on three benchmarks by large margins.
Specifically, the mAP score is improved by 6% and 5% on the most challenging
CUHK03-L and CUHK03-D benchmarks.
- Abstract(参考訳): 人物再同定(reid)は,近年,部分アライメントの実施によって大幅に改善されているが,視覚的に類似した人物の識別や識別に関しては依然として課題となっている。
これらのシナリオでは、各部分の特徴を拡大し、それらを選択的に融合することで、実現可能なソリューションを提供することができる。
本研究では,細部から部品までを正確にマイニングするトリプルブランチネットワークであるmagnifiernetを提案する。
まず、全体的なサルエント機能はグローバルブランチによってエンコードされる。
第二に、各意味領域の詳細な表現を強化するため、訓練中に動的に生成した意味を包含したサンプルから学習する「semantic adversarial branch」が設計されている。
一方,意味領域情報を逐次融合することで,無関係なノイズを除去する「意味融合ブランチ」を導入する。
特徴の多様性をさらに向上するため,学習された意味表現間の重複を取り除くために,新たな損失関数"Semantic Diversity Loss"を導入する。
最先端のパフォーマンスは3つのベンチマークで大きなマージンで達成されている。
特に、最も難しいCUHK03-LとCUHK03-Dベンチマークでは、mAPスコアが6%と5%改善されている。
関連論文リスト
- GroupContrast: Semantic-aware Self-supervised Representation Learning for 3D Understanding [66.5538429726564]
自己教師付き3D表現学習は、大規模未ラベルの点群から効果的な表現を学習することを目的としている。
本稿では,セグメンテーションとセマンティック・アウェア・コントラッシブ・ラーニングを組み合わせた新しいアプローチであるGroupContrastを提案する。
論文 参考訳(メタデータ) (2024-03-14T17:59:59Z) - Collaborative Group: Composed Image Retrieval via Consensus Learning from Noisy Annotations [67.92679668612858]
我々は,集団が個人より優れているという心理的概念に触発されたコンセンサスネットワーク(Css-Net)を提案する。
Css-Netは,(1)コンセンサスモジュールと4つのコンセンサスモジュール,(2)コンセンサス間の相互作用の学習を促進するKulback-Leibler分散損失の2つのコアコンポーネントから構成される。
ベンチマークデータセット、特にFashionIQでは、Css-Netが大幅に改善されている。特に、R@10が2.77%、R@50が6.67%増加し、リコールが大幅に向上している。
論文 参考訳(メタデータ) (2023-06-03T11:50:44Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Leveraging Hidden Positives for Unsupervised Semantic Segmentation [5.937673383513695]
隠れ陽性を抽出することで、コントラスト学習を活用して、豊かな意味関係を学習する。
隣接パッチ間のセマンティック一貫性を学習するための勾配伝搬戦略を導入する。
提案手法は,COCO-stuff,Cityscapes,Potsdam-3データセットにおけるSOTA(State-of-the-art)の新たな結果を実現する。
論文 参考訳(メタデータ) (2023-03-27T08:57:28Z) - Feature Completion Transformer for Occluded Person Re-identification [25.159974510754992]
咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
論文 参考訳(メタデータ) (2023-03-03T01:12:57Z) - Semantic Feature Integration network for Fine-grained Visual
Classification [5.182627302449368]
本稿では,これらの課題に対処するためにセマンティック・フィーチャー・インテグレーション・ネットワーク(SFI-Net)を提案する。
不要な特徴を排除し、識別的特徴間の意味関係を再構築することにより、SFI-Netは満足な性能を実現した。
論文 参考訳(メタデータ) (2023-02-13T07:32:25Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Regional Semantic Contrast and Aggregation for Weakly Supervised
Semantic Segmentation [25.231470587575238]
本稿では,意味的セグメンテーションを学習するための地域意味的コントラストとアグリゲーション(RCA)を提案する。
RCAは、訓練データに現れる多種多様なオブジェクトパターンを格納する地域記憶バンクを備えている。
RCAは、きめ細かいセマンティック理解の強い能力を獲得し、最終的には2つの人気のあるベンチマークで新しい最先端の結果を確立する。
論文 参考訳(メタデータ) (2022-03-17T23:29:03Z) - Domain Generalization via Shuffled Style Assembly for Face Anti-Spoofing [69.80851569594924]
FAS(Generalizable Face Anti-Spoofing)は注目されている。
この作業では、完全な表現をコンテンツとスタイルに分けます。
Shuffled Style Assembly Network (SSAN) は、異なるコンテンツやスタイルの特徴を抽出し、再組み立てするために提案されている。
論文 参考訳(メタデータ) (2022-03-10T12:44:05Z) - Deep Miner: A Deep and Multi-branch Network which Mines Rich and Diverse
Features for Person Re-identification [7.068680287596106]
Deep Minerは、CNNが人々に関するより豊かで多様な機能を「マイニング」することを可能にする方法です。
これは、最先端(SOTA)再識別法を著しく上回るモデルを生成する。
論文 参考訳(メタデータ) (2021-02-18T13:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。