論文の概要: Part Representation Learning with Teacher-Student Decoder for Occluded
Person Re-identification
- arxiv url: http://arxiv.org/abs/2312.09797v1
- Date: Fri, 15 Dec 2023 13:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:42:58.520734
- Title: Part Representation Learning with Teacher-Student Decoder for Occluded
Person Re-identification
- Title(参考訳): 隠蔽者再識別のための教師学習型デコーダによる部分表現学習
- Authors: Shang Gao and Chenyang Yu and Pingping Zhang and Huchuan Lu
- Abstract要約: 本稿では,隠蔽者ReIDのためのTSD(Teacher-Student Decoder)フレームワークを提案する。
提案するTSDは,Parsing-aware Teacher Decoder (PTD) と標準学生デコーダ (SSD) から構成される。
- 参考スコア(独自算出の注目度): 65.63180725319906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occluded person re-identification (ReID) is a very challenging task due to
the occlusion disturbance and incomplete target information. Leveraging
external cues such as human pose or parsing to locate and align part features
has been proven to be very effective in occluded person ReID. Meanwhile, recent
Transformer structures have a strong ability of long-range modeling.
Considering the above facts, we propose a Teacher-Student Decoder (TSD)
framework for occluded person ReID, which utilizes the Transformer decoder with
the help of human parsing. More specifically, our proposed TSD consists of a
Parsing-aware Teacher Decoder (PTD) and a Standard Student Decoder (SSD). PTD
employs human parsing cues to restrict Transformer's attention and imparts this
information to SSD through feature distillation. Thereby, SSD can learn from
PTD to aggregate information of body parts automatically. Moreover, a mask
generator is designed to provide discriminative regions for better ReID. In
addition, existing occluded person ReID benchmarks utilize occluded samples as
queries, which will amplify the role of alleviating occlusion interference and
underestimate the impact of the feature absence issue. Contrastively, we
propose a new benchmark with non-occluded queries, serving as a complement to
the existing benchmark. Extensive experiments demonstrate that our proposed
method is superior and the new benchmark is essential. The source codes are
available at https://github.com/hh23333/TSD.
- Abstract(参考訳): 被占領者の再識別(ReID)は,閉塞障害と不完全な標的情報のために非常に困難な課題である。
人間のポーズやパーシングなどの外的手がかりを活用して特徴の特定と調整を行うことは、隠蔽された人物のReIDに非常に効果的であることが証明されている。
一方、最近のTransformer構造は長距離モデリングの強い能力を持っている。
以上の事実を踏まえ,人間解析の助けを借りてトランスフォーマーデコーダを利用する,隠蔽者ReIDのための教師型デコーダ(TSD)フレームワークを提案する。
より具体的には,提案するtsdはパースアウェア教師デコーダ (ptd) と標準学生デコーダ (ssd) から構成される。
PTDは、Transformerの注意を制限し、特徴蒸留を通じてSSDにこの情報を付与するために、人間の解析手段を使用している。
これにより、SSDはPTDから学習し、自動的に身体部分の情報を集めることができる。
さらに、マスクジェネレータは、より優れたReIDのための識別領域を提供するように設計されている。
さらに、既存のoccluded person reidベンチマークでは、occludedサンプルをクエリとして使用することで、咬合干渉を軽減する役割を増幅し、機能欠如の問題の影響を過小評価する。
対照的に,既存のベンチマークを補完する非閉塞クエリを用いた新しいベンチマークを提案する。
広範な実験により,提案手法が優れていること,新しいベンチマークが不可欠であることを実証した。
ソースコードはhttps://github.com/hh23333/tsdで入手できる。
関連論文リスト
- Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification [2.552131151698595]
我々はトランスフォーマーに基づく人物識別フレームワークであるSSSC-TransReIDを組み合わせた新しい自己監督・監督手法を提案した。
我々は、ネガティブなサンプルや追加の事前学習なしに、人物の再識別のための特徴表現を強化することができる自己教師付きコントラスト学習ブランチを設計した。
提案モデルでは, 平均平均精度(mAP) とランク1の精度において, 最先端のReID手法よりも優れたRe-ID性能が得られ, 高いマージンで性能が向上する。
論文 参考訳(メタデータ) (2024-10-21T03:17:25Z) - Transformer for Object Re-Identification: A Survey [69.61542572894263]
ビジョントランスフォーマーは、TransformerベースのRe-IDをさらに深く研究している。
本稿では、TransformerベースのRe-IDの総合的なレビューと詳細な分析を行う。
本稿では,教師なしRe-IDのトレンドを考えると,最先端性能を実現するための新しいトランスフォーマーベースラインUntransReIDを提案する。
論文 参考訳(メタデータ) (2024-01-13T03:17:57Z) - Erasing, Transforming, and Noising Defense Network for Occluded Person
Re-Identification [36.91680117072686]
我々は,隠蔽された人物のリIDを解決するために,ETNDNet(Easing, Transforming, and Noising Defense Network)を提案する。
提案するETNDNetでは,特徴マップをランダムに消去し,不完全な情報を持つ逆表現を生成する。
第3に、障害物や歩行者以外の歩行者が導入したノイズ情報に対処するために、ランダムな値で特徴マップを摂動する。
論文 参考訳(メタデータ) (2023-07-14T06:42:21Z) - Hierarchical Supervision and Shuffle Data Augmentation for 3D
Semi-Supervised Object Detection [90.32180043449263]
最先端の3Dオブジェクト検出器は通常、高品質な3Dアノテーションを備えた大規模データセットで訓練される。
自然な治療法は、限られた量のラベル付きサンプルと豊富なラベル付きサンプルを活用することで、半教師付き学習(SSL)を採用することである。
本稿では,HSSDA(Hierarchical Supervision and Shuffle Data Augmentation)の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T02:09:32Z) - Occluded Person Re-Identification via Relational Adaptive Feature
Correction Learning [8.015703163954639]
複数のカメラが捉えた画像中の被写体再識別(Re-ID)は、歩行者や物体が被写体を隠蔽しているため困難である。
既存のほとんどの手法では、ネットワークを擬似ラベルとして利用しており、エラーを起こしやすい。
本稿では,Occlusion Correction Network (OCNet) を提案する。Occlusion Correction Network (OCNet) は,リレーショナル・ウェイト・ラーニングによって特徴を補正し,外部ネットワークを使わずに多様で代表的な特徴を得られる。
論文 参考訳(メタデータ) (2022-12-09T07:48:47Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Learning Disentangled Representation Implicitly via Transformer for
Occluded Person Re-Identification [35.40162083252931]
DRL-Netは、厳格な人物画像アライメントや追加の監督を必要とすることなく、隠蔽されたre-IDを処理する表現学習ネットワークである。
定義されていないセマンティックコンポーネントの表現を自動的に切り離すことで、画像の類似度を測定する。
DRL-Netは、一貫して優れたre-ID性能を達成し、Occluded-DukeMTMCに対して大きなマージンで最先端の性能を上回る。
論文 参考訳(メタデータ) (2021-07-06T04:24:10Z) - Diverse Part Discovery: Occluded Person Re-identification with
Part-Aware Transformer [95.02123369512384]
蓄積された人物の再識別(Re-ID)は、様々な障害や人によってしばしば妨げられるため、困難な作業である。
本稿では,多種多様な部分発見を通して,隠蔽されたRe-IDのための新しいエンドツーエンドのPart-Aware Transformer(PAT)を提案する。
論文 参考訳(メタデータ) (2021-06-08T04:29:07Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。