論文の概要: DROP: Decouple Re-Identification and Human Parsing with Task-specific
Features for Occluded Person Re-identification
- arxiv url: http://arxiv.org/abs/2401.18032v1
- Date: Wed, 31 Jan 2024 17:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 13:40:41.384574
- Title: DROP: Decouple Re-Identification and Human Parsing with Task-specific
Features for Occluded Person Re-identification
- Title(参考訳): drop: 身元確認とタスク固有の特徴を備えた人間のパースを分離する
- Authors: Shuguang Dou, Xiangyang Jiang, Yuanpeng Tu, Junyao Gao, Zefan Qu,
Qingsong Zhao, Cairong Zhao
- Abstract要約: 本稿では,隠蔽者再識別(ReID)のためのDouple Re-identificatiOnとHuman Parsing(DROP)手法について紹介する。
ReIDと人間の構文解析の同時学習にグローバルな特徴を用いる主流のアプローチとは異なり、DROPは、前者の劣る性能はReIDと人間の解析機能の異なる要件に起因すると主張している。
実験の結果、DROPの有効性、特にOccluded-Dukeで76.8%のランク1の精度を達成し、2つの主要な方法を超えた。
- 参考スコア(独自算出の注目度): 15.910080319118498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper introduces the Decouple Re-identificatiOn and human Parsing (DROP)
method for occluded person re-identification (ReID). Unlike mainstream
approaches using global features for simultaneous multi-task learning of ReID
and human parsing, or relying on semantic information for attention guidance,
DROP argues that the inferior performance of the former is due to distinct
granularity requirements for ReID and human parsing features. ReID focuses on
instance part-level differences between pedestrian parts, while human parsing
centers on semantic spatial context, reflecting the internal structure of the
human body. To address this, DROP decouples features for ReID and human
parsing, proposing detail-preserving upsampling to combine varying resolution
feature maps. Parsing-specific features for human parsing are decoupled, and
human position information is exclusively added to the human parsing branch. In
the ReID branch, a part-aware compactness loss is introduced to enhance
instance-level part differences. Experimental results highlight the efficacy of
DROP, especially achieving a Rank-1 accuracy of 76.8% on Occluded-Duke,
surpassing two mainstream methods. The codebase is accessible at
https://github.com/shuguang-52/DROP.
- Abstract(参考訳): 本稿では,隠蔽者再識別(ReID)のためのDouple Re-identificatiOnとHuman Parsing(DROP)手法を提案する。
ReIDと人間の構文解析の同時学習にグローバルな特徴を用いる主流のアプローチと異なり、注意誘導のための意味情報に依存しているのに対し、DROPは、ReIDと人間の構文解析の特徴に対する明確な粒度の要求によって、前者の劣る性能が引き起こされると主張している。
reidは歩行者の部位間のインスタンス部分レベルの差異に焦点を当て、人間の解析は身体の内部構造を反映した意味的な空間的文脈に焦点を当てている。
これを解決するため、DROPはReIDとヒューマンパースの機能を切り離し、様々な解像度の特徴マップを組み合わせるために詳細保存アップサンプリングを提案する。
ヒト解析のためのパーシング固有の特徴を分離し、ヒト解析枝にヒトの位置情報のみを付加する。
ReIDブランチでは、インスタンスレベルの部分差を高めるために、部分認識のコンパクトさ損失が導入される。
実験の結果、DROPの有効性、特にOccluded-Dukeで76.8%のランク1の精度を達成し、2つの主要な方法を超えた。
コードベースはhttps://github.com/shuguang-52/DROPでアクセスできる。
関連論文リスト
- Part-Attention Based Model Make Occluded Person Re-Identification Stronger [1.7648680700685022]
PAB-ReIDは,問題に効果的に対処するための部分認識機構を組み込んだ新しいReIDモデルである。
まず、より正確な人的部分注意マップの生成を導くために、人間のパーシングラベルを導入する。
また、背景干渉を抑えつつ、きめ細かい人間の局所的特徴表現を生成するための細粒度特徴焦点器を提案する。
論文 参考訳(メタデータ) (2024-04-04T13:43:11Z) - AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Integrating Human Parsing and Pose Network for Human Action Recognition [12.308394270240463]
動作認識のための新しいモダリティとして,人間の解析特徴マップを導入する。
本稿では,行動認識のためのヒューマンパーシングとポースネットワーク(IPP-Net)の統合を提案する。
IPP-Netは、スケルトンと人間のパース機能マップの両方を活用する最初の方法である。
論文 参考訳(メタデータ) (2023-07-16T07:58:29Z) - Body Part-Based Representation Learning for Occluded Person
Re-Identification [102.27216744301356]
隠蔽人物再識別(ReID)とは,隠蔽人物画像と包括的人物画像とのマッチングを目的とした人物検索タスクである。
パートベースの手法は、微細な情報を提供し、部分的に見える人間の体を表現するのに適しているため、有益であることが示されている。
本稿では,BPBreIDという身体部分に基づくReIDモデルを提案する。
論文 参考訳(メタデータ) (2022-11-07T16:48:41Z) - AIParsing: Anchor-free Instance-level Human Parsing [98.80740676794254]
我々は、アンカーフリーで画素レベルで解決可能なインスタンスレベルのヒューマンパーシングネットワークを設計した。
ボックス予測のためのアンカーフリー検出ヘッドと、人間のセグメンテーションのためのエッジ誘導パーシングヘッドの2つの単純なサブネットワークで構成されている。
提案手法は,最先端のワンステージトップダウン方式よりも優れたグローバルレベルおよびインスタンスレベルの性能を実現する。
論文 参考訳(メタデータ) (2022-07-14T12:19:32Z) - Dual-Stream Reciprocal Disentanglement Learning for Domain Adaption
Person Re-Identification [44.80508095481811]
本稿では,Dual-stream Reciprocal Disentanglement Learning (DRDL) という新しい手法を提案する。
DRDLでは、まず2つのエンコーダがID関連およびID非関連の特徴抽出のために構築され、それぞれ関連する分類器によって測定される。
提案手法は,計算複雑性を著しく低減するだけでなく,ID関連の特徴から冗長な情報を除去する。
論文 参考訳(メタデータ) (2021-06-26T03:05:23Z) - Differentiable Multi-Granularity Human Representation Learning for
Instance-Aware Human Semantic Parsing [131.97475877877608]
カテゴリーレベルの人間のセマンティックセグメンテーションとマルチパーソンポーズ推定を共同およびエンドツーエンドで学習するために,新たなボトムアップ方式を提案する。
さまざまな人間の粒度にわたって構造情報を利用する、コンパクトで効率的で強力なフレームワークです。
3つのインスタンス認識型ヒューマンデータセットの実験は、我々のモデルがより効率的な推論で他のボトムアップの代替案よりも優れていることを示している。
論文 参考訳(メタデータ) (2021-03-08T06:55:00Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - Identity-Guided Human Semantic Parsing for Person Re-Identification [42.705908907250986]
そこで本研究では,人物の身元と身元の両方を画素レベルで特定し,人物の身元を識別する「身元案内型人間意味解析」手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T12:12:27Z) - Hierarchical Human Parsing with Typed Part-Relation Reasoning [179.64978033077222]
このタスクでは、人体構造をモデル化する方法が中心的なテーマである。
深層グラフネットワークの表現能力と階層的人間構造を同時に活用することを模索する。
論文 参考訳(メタデータ) (2020-03-10T16:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。