論文の概要: Learning Feature Recovery Transformer for Occluded Person
Re-identification
- arxiv url: http://arxiv.org/abs/2301.01879v1
- Date: Thu, 5 Jan 2023 02:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:59:41.844122
- Title: Learning Feature Recovery Transformer for Occluded Person
Re-identification
- Title(参考訳): 失認者再同定のための学習機能回復トランス
- Authors: Boqiang Xu, Lingxiao He, Jian Liang, Zhenan Sun
- Abstract要約: 本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
- 参考スコア(独自算出の注目度): 71.18476220969647
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One major issue that challenges person re-identification (Re-ID) is the
ubiquitous occlusion over the captured persons. There are two main challenges
for the occluded person Re-ID problem, i.e., the interference of noise during
feature matching and the loss of pedestrian information brought by the
occlusions. In this paper, we propose a new approach called Feature Recovery
Transformer (FRT) to address the two challenges simultaneously, which mainly
consists of visibility graph matching and feature recovery transformer. To
reduce the interference of the noise during feature matching, we mainly focus
on visible regions that appear in both images and develop a visibility graph to
calculate the similarity. In terms of the second challenge, based on the
developed graph similarity, for each query image, we propose a recovery
transformer that exploits the feature sets of its $k$-nearest neighbors in the
gallery to recover the complete features. Extensive experiments across
different person Re-ID datasets, including occluded, partial and holistic
datasets, demonstrate the effectiveness of FRT. Specifically, FRT significantly
outperforms state-of-the-art results by at least 6.2\% Rank-1 accuracy and
7.2\% mAP scores on the challenging Occluded-Duke dataset. The code is
available at https://github.com/xbq1994/Feature-Recovery-Transformer.
- Abstract(参考訳): 人物の再識別(Re-ID)に挑戦する主要な問題は、捕獲された人物に対するユビキタスな排除である。
閉鎖された人物のRe-ID問題には,特徴マッチング時のノイズの干渉と,閉塞による歩行者情報の喪失という,大きな課題が2つある。
本稿では,2つの課題を同時に解決するための特徴回復変換器 (FRT) という新しい手法を提案する。
特徴マッチング中のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似度を計算するための可視性グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
occluded, partial, holistic datasetsを含む、さまざまなパーソナライズされたデータセットにわたる広範囲な実験が、frtの有効性を示している。
具体的には、FRTは、挑戦的なOccluded-Dukeデータセットにおいて、少なくとも6.2\% Rank-1精度と7.2\% mAPスコアによって、最先端の結果を大幅に上回る。
コードはhttps://github.com/xbq1994/Feature-Recovery-Transformerで公開されている。
関連論文リスト
- Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Feature Completion Transformer for Occluded Person Re-identification [14.735577283631509]
咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
論文 参考訳(メタデータ) (2023-03-03T01:12:57Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Dynamic Feature Pruning and Consolidation for Occluded Person
Re-Identification [21.006680330530852]
本研究では, 明示的な人間の構造解析を回避するために, 機能解析・統合(FPC)フレームワークを提案する。
フレームワークは主にスパースエンコーダ、マルチビュー機能mathcingモジュール、フィーチャーコンソリデーションデコーダで構成されている。
提案手法は,Occluded-Dukeデータセットにおいて,少なくとも8.6% mAPと6.0% Rank-1の精度で最新結果より優れる。
論文 参考訳(メタデータ) (2022-11-27T06:18:40Z) - Counterfactual Intervention Feature Transfer for Visible-Infrared Person
Re-identification [69.45543438974963]
視覚赤外人物再識別タスク(VI-ReID)におけるグラフベースの手法は,2つの問題により,悪い一般化に悩まされている。
十分に訓練された入力特徴は、グラフトポロジーの学習を弱め、推論過程において十分に一般化されない。
本稿では,これらの問題に対処するためのCIFT法を提案する。
論文 参考訳(メタデータ) (2022-08-01T16:15:31Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Neighbourhood-guided Feature Reconstruction for Occluded Person
Re-Identification [45.704612531562404]
本研究では,周辺情報をギャラリーのイメージセットでフル活用し,埋蔵部品の特徴表現の再構築を提案する。
大規模なOccluded-DukeMTMCベンチマークでは,64.2%のmAPと67.6%のランク1精度を達成した。
論文 参考訳(メタデータ) (2021-05-16T03:53:55Z) - SFANet: A Spectrum-aware Feature Augmentation Network for
Visible-Infrared Person Re-Identification [12.566284647658053]
クロスモダリティマッチング問題に対するSFANetという新しいスペクトル認識特徴量化ネットワークを提案する。
grayscale-spectrumイメージで学習すると、モダリティの不一致を低減し、内部構造関係を検出することができる。
特徴レベルでは、特定および粉砕可能な畳み込みブロックの数のバランスをとることにより、従来の2ストリームネットワークを改善します。
論文 参考訳(メタデータ) (2021-02-24T08:57:32Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。