論文の概要: Neighbourhood-guided Feature Reconstruction for Occluded Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2105.07345v1
- Date: Sun, 16 May 2021 03:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:47:40.049386
- Title: Neighbourhood-guided Feature Reconstruction for Occluded Person
Re-Identification
- Title(参考訳): 咬合者再同定のための近隣誘導型特徴再建
- Authors: Shijie Yu and Dapeng Chen and Rui Zhao and Haobin Chen and Yu Qiao
- Abstract要約: 本研究では,周辺情報をギャラリーのイメージセットでフル活用し,埋蔵部品の特徴表現の再構築を提案する。
大規模なOccluded-DukeMTMCベンチマークでは,64.2%のmAPと67.6%のランク1精度を達成した。
- 参考スコア(独自算出の注目度): 45.704612531562404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person images captured by surveillance cameras are often occluded by various
obstacles, which lead to defective feature representation and harm person
re-identification (Re-ID) performance. To tackle this challenge, we propose to
reconstruct the feature representation of occluded parts by fully exploiting
the information of its neighborhood in a gallery image set. Specifically, we
first introduce a visible part-based feature by body mask for each person
image. Then we identify its neighboring samples using the visible features and
reconstruct the representation of the full body by an outlier-removable graph
neural network with all the neighboring samples as input. Extensive experiments
show that the proposed approach obtains significant improvements. In the
large-scale Occluded-DukeMTMC benchmark, our approach achieves 64.2% mAP and
67.6% rank-1 accuracy which outperforms the state-of-the-art approaches by
large margins, i.e.,20.4% and 12.5%, respectively, indicating the effectiveness
of our method on occluded Re-ID problem.
- Abstract(参考訳): 監視カメラが捉えた人物画像は、しばしば様々な障害物によって遮蔽され、欠陥のある特徴表現と人体再識別(Re-ID)のパフォーマンスを損なう。
この課題に対処するために, ギャラリー画像セットにおいて, 周辺地域の情報をフル活用して, 隠蔽部品の特徴表現を再構築することを提案する。
具体的には、まず、人物画像ごとにボディマスクによる可視部分ベースの特徴を導入する。
次に, 周辺サンプルを可視的特徴を用いて識別し, 周辺サンプルを全て入力として外乱除去可能なグラフニューラルネットワークを用いて全身の表現を再構築する。
広範な実験により,提案手法は大幅な改善が得られた。
大規模 Occluded-DukeMTMC ベンチマークでは,64.2% mAP と67.6% のランク-1 の精度を達成し,それぞれの手法が Occluded Re-ID 問題に対する有効性を示す。
関連論文リスト
- Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification [2.552131151698595]
我々はトランスフォーマーに基づく人物識別フレームワークであるSSSC-TransReIDを組み合わせた新しい自己監督・監督手法を提案した。
我々は、ネガティブなサンプルや追加の事前学習なしに、人物の再識別のための特徴表現を強化することができる自己教師付きコントラスト学習ブランチを設計した。
提案モデルでは, 平均平均精度(mAP) とランク1の精度において, 最先端のReID手法よりも優れたRe-ID性能が得られ, 高いマージンで性能が向上する。
論文 参考訳(メタデータ) (2024-10-21T03:17:25Z) - AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Learning Feature Recovery Transformer for Occluded Person
Re-identification [71.18476220969647]
本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
論文 参考訳(メタデータ) (2023-01-05T02:36:16Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Dynamic Feature Pruning and Consolidation for Occluded Person
Re-Identification [21.006680330530852]
本研究では, 明示的な人間の構造解析を回避するために, 機能解析・統合(FPC)フレームワークを提案する。
フレームワークは主にスパースエンコーダ、マルチビュー機能mathcingモジュール、フィーチャーコンソリデーションデコーダで構成されている。
提案手法は,Occluded-Dukeデータセットにおいて,少なくとも8.6% mAPと6.0% Rank-1の精度で最新結果より優れる。
論文 参考訳(メタデータ) (2022-11-27T06:18:40Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - CGUA: Context-Guided and Unpaired-Assisted Weakly Supervised Person
Search [54.106662998673514]
本稿では,コンテキストガイドとアンペア支援(CGUA)を弱教師付き人物検索フレームワークとして導入する。
具体的には、クラスタリングプロセスにおけるコンテキスト情報を活用する新しいコンテキストガイドクラスタ(CGC)アルゴリズムを提案する。
本手法は,より多様なラベル付きデータを活用することにより,最先端の教師付き手法に匹敵する,あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2022-03-27T13:57:30Z) - On Improving the Generalization of Face Recognition in the Presence of
Occlusions [13.299431908881425]
Occlusion-aware face RecOgnition (OREO) アプローチは, 咬合の有無に関わらず, 識別的顔テンプレートを学習した。
OREOは、顔認識の一般化能力を1画像ベースで(10.17%)改善した。
論文 参考訳(メタデータ) (2020-06-11T20:17:23Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。