論文の概要: FTN: Foreground-Guided Texture-Focused Person Re-Identification
- arxiv url: http://arxiv.org/abs/2009.11425v1
- Date: Thu, 24 Sep 2020 00:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:59:51.346747
- Title: FTN: Foreground-Guided Texture-Focused Person Re-Identification
- Title(参考訳): FTN:フォアグラウンドガイドによるテクスチャを意識した人物の再同定
- Authors: Donghaisheng Liu, Shoudong Han, Yang Chen, Chenfei Xia, Jun Zhao
- Abstract要約: 人物の再識別(Re-ID)は、しばしば異なる背景を持つため、困難な作業である。
近年のRe-ID法では,前景と背景情報を同一に扱う。
非関係な背景の表現を弱めることができるRe-IDのためのフォアグラウンドガイド型テクスチャ焦点ネットワーク(FTN)を提案する。
- 参考スコア(独自算出の注目度): 10.3230439815601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (Re-ID) is a challenging task as persons are often
in different backgrounds. Most recent Re-ID methods treat the foreground and
background information equally for person discriminative learning, but can
easily lead to potential false alarm problems when different persons are in
similar backgrounds or the same person is in different backgrounds. In this
paper, we propose a Foreground-Guided Texture-Focused Network (FTN) for Re-ID,
which can weaken the representation of unrelated background and highlight the
attributes person-related in an end-to-end manner. FTN consists of a semantic
encoder (S-Enc) and a compact foreground attention module (CFA) for Re-ID task,
and a texture-focused decoder (TF-Dec) for reconstruction task. Particularly,
we build a foreground-guided semi-supervised learning strategy for TF-Dec
because the reconstructed ground-truths are only the inputs of FTN weighted by
the Gaussian mask and the attention mask generated by CFA. Moreover, a new
gradient loss is introduced to encourage the network to mine the texture
consistency between the inputs and the reconstructed outputs. Our FTN is
computationally efficient and extensive experiments on three commonly used
datasets Market1501, CUHK03 and MSMT17 demonstrate that the proposed method
performs favorably against the state-of-the-art methods.
- Abstract(参考訳): 人物再識別(re-id)は、しばしば異なる背景にいるため、困難なタスクである。
最近のre-id法は、前景と背景情報を個人識別学習に等しく扱うが、異なる人物が同じ背景にいる場合や同じ人物が異なる背景にいる場合、誤報の可能性がある。
本稿では,無関係な背景の表現を弱め,個人関係の属性をエンドツーエンドで強調する,re-idのためのフォアグラウンドガイド型テクスチャ指向ネットワーク(ftn)を提案する。
FTNは、セマンティックエンコーダ(S-Enc)とRe-IDタスクのためのコンパクトフォアグラウンドアテンションモジュール(CFA)と、再構成タスクのためのテクスチャ指向デコーダ(TF-Dec)で構成される。
特に,提案手法は,ガウスマスクによるFTNの入力と,CFAによるアテンションマスクの入力のみであるので,TF-Decのための前景誘導型半教師付き学習戦略を構築する。
さらに,入力と再構成出力間のテクスチャ一貫性をマイニングするために,新たな勾配損失が導入された。
我々のFTNは,3つの一般的なデータセットであるMarket1501,CUHK03,MSMT17の計算効率と広範囲な実験により,提案手法が最先端の手法に対して良好に動作することを示す。
関連論文リスト
- Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - CLIP-Driven Fine-grained Text-Image Person Re-identification [50.94827165464813]
TIReIDは、候補画像のプールから与えられたテキストクエリに対応する画像を取得することを目的としている。
TIReIDにおけるCLIPの強力な知識をフル活用するための,CLIP駆動のきめ細かい情報抽出フレームワーク(CFine)を提案する。
論文 参考訳(メタデータ) (2022-10-19T03:43:12Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - KTN: Knowledge Transfer Network for Learning Multi-person 2D-3D
Correspondences [77.56222946832237]
画像中の複数の人物の密着度を検出するための新しい枠組みを提案する。
提案手法は知識伝達ネットワーク(KTN)の2つの問題に対処する。
特徴解像度を同時に維持し、背景画素を抑圧し、この戦略は精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-06-21T03:11:37Z) - CMTR: Cross-modality Transformer for Visible-infrared Person
Re-identification [38.96033760300123]
可視赤外人物再識別のための相互モダリティトランスフォーマー法(CMTR)
我々は,モダリティの情報をエンコードするために,トークン埋め込みと融合した新しいモダリティ埋め込みを設計する。
提案するCMTRモデルの性能は,既存のCNN方式をはるかに上回っている。
論文 参考訳(メタデータ) (2021-10-18T03:12:59Z) - Parameter Sharing Exploration and Hetero-Center based Triplet Loss for
Visible-Thermal Person Re-Identification [17.402673438396345]
本稿では,VT Re-ID(VT Re-ID)タスクについて述べる。
提案手法は,最先端の手法を大きなマージンで明らかに上回っている。
論文 参考訳(メタデータ) (2020-08-14T07:40:35Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。