論文の概要: Learning Feature Recovery Transformer for Occluded Person
Re-identification
- arxiv url: http://arxiv.org/abs/2301.01879v1
- Date: Thu, 5 Jan 2023 02:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:59:41.844122
- Title: Learning Feature Recovery Transformer for Occluded Person
Re-identification
- Title(参考訳): 失認者再同定のための学習機能回復トランス
- Authors: Boqiang Xu, Lingxiao He, Jian Liang, Zhenan Sun
- Abstract要約: 本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
- 参考スコア(独自算出の注目度): 71.18476220969647
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One major issue that challenges person re-identification (Re-ID) is the
ubiquitous occlusion over the captured persons. There are two main challenges
for the occluded person Re-ID problem, i.e., the interference of noise during
feature matching and the loss of pedestrian information brought by the
occlusions. In this paper, we propose a new approach called Feature Recovery
Transformer (FRT) to address the two challenges simultaneously, which mainly
consists of visibility graph matching and feature recovery transformer. To
reduce the interference of the noise during feature matching, we mainly focus
on visible regions that appear in both images and develop a visibility graph to
calculate the similarity. In terms of the second challenge, based on the
developed graph similarity, for each query image, we propose a recovery
transformer that exploits the feature sets of its $k$-nearest neighbors in the
gallery to recover the complete features. Extensive experiments across
different person Re-ID datasets, including occluded, partial and holistic
datasets, demonstrate the effectiveness of FRT. Specifically, FRT significantly
outperforms state-of-the-art results by at least 6.2\% Rank-1 accuracy and
7.2\% mAP scores on the challenging Occluded-Duke dataset. The code is
available at https://github.com/xbq1994/Feature-Recovery-Transformer.
- Abstract(参考訳): 人物の再識別(Re-ID)に挑戦する主要な問題は、捕獲された人物に対するユビキタスな排除である。
閉鎖された人物のRe-ID問題には,特徴マッチング時のノイズの干渉と,閉塞による歩行者情報の喪失という,大きな課題が2つある。
本稿では,2つの課題を同時に解決するための特徴回復変換器 (FRT) という新しい手法を提案する。
特徴マッチング中のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似度を計算するための可視性グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
occluded, partial, holistic datasetsを含む、さまざまなパーソナライズされたデータセットにわたる広範囲な実験が、frtの有効性を示している。
具体的には、FRTは、挑戦的なOccluded-Dukeデータセットにおいて、少なくとも6.2\% Rank-1精度と7.2\% mAPスコアによって、最先端の結果を大幅に上回る。
コードはhttps://github.com/xbq1994/Feature-Recovery-Transformerで公開されている。
関連論文リスト
- DDRN:a Data Distribution Reconstruction Network for Occluded Person Re-Identification [5.7703191981015305]
本研究では,データ分布を利用した生成モデルを提案し,無関係な詳細をフィルタリングする。
Occluded-Dukeデータセットでは、62.4%(+1.1%)のmAPと71.3%(+0.6%)のランク1の精度を達成した。
論文 参考訳(メタデータ) (2024-10-09T06:52:05Z) - DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior [70.46245698746874]
DiffBIRは、視覚の異なる画像復元タスクを処理できる一般的な修復パイプラインである。
DiffBIRは, ブラインド画像復元問題を, 1) 劣化除去: 画像に依存しない内容の除去; 2) 情報再生: 失われた画像内容の生成の2段階に分離する。
第1段階では, 修復モジュールを用いて劣化を除去し, 高忠実度復元結果を得る。
第2段階では、潜伏拡散モデルの生成能力を活用して現実的な詳細を生成するIRControlNetを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:11:52Z) - Feature Completion Transformer for Occluded Person Re-identification [25.159974510754992]
咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
論文 参考訳(メタデータ) (2023-03-03T01:12:57Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Dynamic Feature Pruning and Consolidation for Occluded Person
Re-Identification [21.006680330530852]
本研究では, 明示的な人間の構造解析を回避するために, 機能解析・統合(FPC)フレームワークを提案する。
フレームワークは主にスパースエンコーダ、マルチビュー機能mathcingモジュール、フィーチャーコンソリデーションデコーダで構成されている。
提案手法は,Occluded-Dukeデータセットにおいて,少なくとも8.6% mAPと6.0% Rank-1の精度で最新結果より優れる。
論文 参考訳(メタデータ) (2022-11-27T06:18:40Z) - Counterfactual Intervention Feature Transfer for Visible-Infrared Person
Re-identification [69.45543438974963]
視覚赤外人物再識別タスク(VI-ReID)におけるグラフベースの手法は,2つの問題により,悪い一般化に悩まされている。
十分に訓練された入力特徴は、グラフトポロジーの学習を弱め、推論過程において十分に一般化されない。
本稿では,これらの問題に対処するためのCIFT法を提案する。
論文 参考訳(メタデータ) (2022-08-01T16:15:31Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Neighbourhood-guided Feature Reconstruction for Occluded Person
Re-Identification [45.704612531562404]
本研究では,周辺情報をギャラリーのイメージセットでフル活用し,埋蔵部品の特徴表現の再構築を提案する。
大規模なOccluded-DukeMTMCベンチマークでは,64.2%のmAPと67.6%のランク1精度を達成した。
論文 参考訳(メタデータ) (2021-05-16T03:53:55Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。