論文の概要: Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning
- arxiv url: http://arxiv.org/abs/2212.04712v1
- Date: Fri, 9 Dec 2022 07:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:22:35.894768
- Title: Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning
- Title(参考訳): リレーショナル・アダプティブ・特徴補正学習による人物再同定
- Authors: Minjung Kim, MyeongAh Cho, Heansung Lee, Suhwan Cho, Sangyoun Lee
- Abstract要約: 複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
- 参考スコア(独自算出の注目度): 8.015703163954639
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Occluded person re-identification (Re-ID) in images captured by multiple
cameras is challenging because the target person is occluded by pedestrians or
objects, especially in crowded scenes. In addition to the processes performed
during holistic person Re-ID, occluded person Re-ID involves the removal of
obstacles and the detection of partially visible body parts. Most existing
methods utilize the off-the-shelf pose or parsing networks as pseudo labels,
which are prone to error. To address these issues, we propose a novel Occlusion
Correction Network (OCNet) that corrects features through relational-weight
learning and obtains diverse and representative features without using external
networks. In addition, we present a simple concept of a center feature in order
to provide an intuitive solution to pedestrian occlusion scenarios.
Furthermore, we suggest the idea of Separation Loss (SL) for focusing on
different parts between global features and part features. We conduct extensive
experiments on five challenging benchmark datasets for occluded and holistic
Re-ID tasks to demonstrate that our method achieves superior performance to
state-of-the-art methods especially on occluded scene.
- Abstract(参考訳): 複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、特に混雑したシーンでは歩行者や物体に隠蔽されているため困難である。
包括的人物Re-IDの間に行われるプロセスに加えて、隠蔽された人物Re-IDは障害物の除去と部分的に見える身体部分の検出を含む。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
そこで本研究では,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを用いずに多様で代表的な特徴量を得る新しいオクルージョン補正ネットワーク(ocnet)を提案する。
また,歩行者のオクルージョンシナリオに対する直感的な解決策を提供するため,センター機能の簡単な概念を提案する。
さらに,グローバル特徴とパート特徴の異なる部分に着目した分離損失(sl)の考え方を提案する。
我々は,隠蔽および包括的Re-IDタスクのための5つの挑戦的ベンチマークデータセットについて広範な実験を行った。
関連論文リスト
- ProFD: Prompt-Guided Feature Disentangling for Occluded Person Re-Identification [34.38227097059117]
本稿では,Prompt-Guided Feature Disentangling法(ProFD)を提案する。
ProFDはまず部分固有のプロンプトを設計し、ノイズセグメンテーションマスクを用いて視覚とテキストの埋め込みを予め調整する。
我々は,CLIPの事前訓練された知識を保ち,過度な適合を緩和する自己蒸留戦略を採用している。
論文 参考訳(メタデータ) (2024-09-30T08:31:14Z) - Keypoint Promptable Re-Identification [76.31113049256375]
Occluded Person Re-Identification (ReID) は、その外見に基づいて隠蔽された個人をマッチングするメトリクス学習タスクである。
本稿では、入力バウンディングボックスを意味キーポイントの集合で明示的に補完する新しいReID問題の定式化であるKeypoint Promptable ReID(KPR)を紹介する。
我々は4つの人気のあるReIDベンチマークのためのカスタムキーポイントラベルをリリースした。人物検索の実験だけでなく、ポーズトラッキングの実験も、我々の手法が従来の最先端手法を体系的に超越していることを示す。
論文 参考訳(メタデータ) (2024-07-25T15:20:58Z) - Learning Cross-modality Information Bottleneck Representation for
Heterogeneous Person Re-Identification [61.49219876388174]
Visible-Infrared person re-identification (VI-ReID)は、インテリジェントビデオ監視において重要かつ困難な課題である。
既存の手法は主に共有特徴空間の学習に重点を置いており、可視光と赤外光の相違を減らす。
本稿では,新しい相互情報・モダリティコンセンサスネットワーク,すなわちCMInfoNetを提案し,モダリティ不変な同一性の特徴を抽出する。
論文 参考訳(メタデータ) (2023-08-29T06:55:42Z) - Attention Disturbance and Dual-Path Constraint Network for Occluded
Person Re-identification [36.86516784815214]
本稿では,アテンションネットワークの一般化を促進するために,トランスフォーマーに基づくアテンション障害とデュアルパス制約ネットワーク(ADP)を提案する。
実世界の障害物を模倣するため,攻撃音を発生させるアテンション外乱マスク(ADM)モジュールを導入する。
我々はまた、全体像から望ましい監視情報を得ることができるデュアルパス制約モジュール(DPC)を開発した。
論文 参考訳(メタデータ) (2023-03-20T09:56:35Z) - Feature Completion Transformer for Occluded Person Re-identification [25.159974510754992]
咬合者の再同定(Re-ID)は,咬合者の破壊による課題である。
特徴空間に隠された部分の意味情報を暗黙的に補完する特徴補完変換器(FCFormer)を提案する。
FCFormerは優れたパフォーマンスを実現し、隠蔽されたデータセットに対してかなりのマージンで最先端の手法を上回ります。
論文 参考訳(メタデータ) (2023-03-03T01:12:57Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - Deep Learning-based Occluded Person Re-identification: A Survey [19.76711535866007]
被占領者の再識別(Re-ID)は、複数のカメラにまたがって被写体を回収する際の閉塞問題に対処することを目的としている。
本稿では,隠蔽者のRe-ID手法を体系的に調査する。
本稿では, Re-ID を介在することによる4つの問題点,すなわち, 位置ずれ, スケールずれ, ノイズ情報, 行方不明情報について要約する。
論文 参考訳(メタデータ) (2022-07-29T03:10:18Z) - Pose-Guided Feature Learning with Knowledge Distillation for Occluded
Person Re-Identification [137.8810152620818]
PGFL-KD (Pose-Guided Feature Learning with Knowledge Distillation) というネットワークを提案する。
PGFL-KDは、メインブランチ(MB)と2つのポーズ誘導ブランチ(ieno)、フォアグラウンド強化ブランチ(FEB)、ボディ部分セマンティクス整列ブランチ(SAB)から構成される。
閉鎖型,部分的,包括型 ReID タスクの実験は,提案したネットワークの有効性を示す。
論文 参考訳(メタデータ) (2021-07-31T03:34:27Z) - Learning Disentangled Representation Implicitly via Transformer for
Occluded Person Re-Identification [35.40162083252931]
DRL-Netは、厳格な人物画像アライメントや追加の監督を必要とすることなく、隠蔽されたre-IDを処理する表現学習ネットワークである。
定義されていないセマンティックコンポーネントの表現を自動的に切り離すことで、画像の類似度を測定する。
DRL-Netは、一貫して優れたre-ID性能を達成し、Occluded-DukeMTMCに対して大きなマージンで最先端の性能を上回る。
論文 参考訳(メタデータ) (2021-07-06T04:24:10Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z) - Do Not Disturb Me: Person Re-identification Under the Interference of
Other Pedestrians [97.45805377769354]
本稿では,Pedestrian-Interference Suppression Network (PISNet)と呼ばれる新しいディープネットワークを提案する。
PISNetはクエリガイド付アテンションブロック(QGAB)を活用して、クエリのガイダンスの下でギャラリー内のターゲットの機能を強化する。
その結果,提案手法は既存のRe-ID手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-08-16T17:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。