論文の概要: PGS: Pose-Guided Supervision for Mitigating Clothes-Changing in Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2312.05634v2
- Date: Sun, 31 Dec 2023 17:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 00:49:01.048408
- Title: PGS: Pose-Guided Supervision for Mitigating Clothes-Changing in Person
Re-Identification
- Title(参考訳): PGS:人体再同定における衣服交換の緩和のためのPose-Guided Supervision
- Authors: Quoc-Huy Trinh and Nhat-Tan Bui and Dinh-Hieu Hoang and Phuoc-Thao Vo
Thi and Hai-Dang Nguyen and Debesh Jha and Ulas Bagci and Ngan Le and
Minh-Triet Tran
- Abstract要約: Pose-Guided Supervision (PGS)は、Re-IDタスク内でポーズガイダンスを学ぶための効果的なフレームワークである。
我々のフレームワークは、常に現在の最先端メソッドのパフォーマンスを上回ります。
- 参考スコア(独自算出の注目度): 10.521396957436526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person Re-Identification (Re-ID) task seeks to enhance the tracking of
multiple individuals by surveillance cameras. It provides additional support
for multimodal tasks, including text-based person retrieval and human matching.
Among the significant challenges faced in Re-ID, one of the most prominent is
dealing with clothes-changing, where the same person may appear in different
outfits. While previous methods have made notable progress in maintaining
clothing data consistency and handling clothing change data, they still tend to
rely excessively on clothing information, which can limit performance due to
the dynamic nature of human appearances. To mitigate this challenge, we propose
the Pose-Guided Supervision (PGS), an effective framework for learning pose
guidance within the Re-ID task. Our PGS consists of three modules: a human
encoder, a pose encoder, and a Pose-to-Human Projection module (PHP). The pose
encoder module utilizes a frozen pre-trained model while we fine-tune a
pre-trained human-centric model for the human encoder module. Our PHP transfers
pose knowledge from the pose encoder module to the human encoder module through
multiple projectors. Our framework, following extensive experimentation on five
benchmark datasets, consistently surpasses the performance of current
state-of-the-art methods. Our code is available at
https://github.com/huyquoctrinh/PGS.
- Abstract(参考訳): 個人再識別(Re-ID)タスクは、監視カメラによる複数の個人追跡を強化することを目的としている。
テキストベースの人物検索やヒューマンマッチングなど、マルチモーダルタスクへの追加サポートを提供する。
Re-IDで直面する重要な課題の1つは、着替えを扱うことであり、同じ人が異なる衣装に現れる可能性がある。
これまでの方法では、衣服データの一貫性を維持し、衣服の変化データを扱うことは顕著な進歩を遂げてきたが、それでも服の情報に過度に依存する傾向にある。
この課題を軽減するために,Re-IDタスク内でポーズガイダンスを学習するための効果的なフレームワークであるPose-Guided Supervision (PGS)を提案する。
私たちのpgsは、人間のエンコーダ、ポーズエンコーダ、ポーズツーヒューマンプロジェクションモジュール(php)という3つのモジュールで構成されています。
ポーズエンコーダモジュールは凍結した事前学習モデルを使用し、人間のエンコーダモジュールのための事前学習された人間中心モデルを微調整する。
当社のPHP転送は、ポーズエンコーダモジュールから、複数のプロジェクタを介してヒューマンエンコーダモジュールへの知識を付加します。
筆者らのフレームワークは,5つのベンチマークデータセットに対する広範な実験を経て,現在最先端の手法の性能を常に上回っている。
私たちのコードはhttps://github.com/huyquoctrinh/pgsで利用可能です。
関連論文リスト
- Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Social-MAE: Social Masked Autoencoder for Multi-person Motion Representation Learning [16.85316898267404]
マルチ対人動作データのためのトランスフォーマーベースのマスク付きオートエンコーダフレームワークであるSocial-MAEを紹介する。
このフレームワークは、マスク付きモデリングを使用して、エンコーダを事前訓練し、マスク付きヒト関節軌道を再構築する。
それは、多人数のポーズ予測、社会的グループ化、社会的行動理解など、様々な高度な社会的タスクに関する最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-04-08T14:54:54Z) - AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression [66.39539141222524]
そこで本研究では,ヒトの部位を適応点として表現し,微細な身体表現法を提案する。
提案するボディ表現では,AdaptivePoseと呼ばれる,コンパクトなシングルステージ多人数ポーズ回帰ネットワークを提供する。
本稿では,AdaptivePoseの有効性を検証するために,2D/3D多人数ポーズ推定タスクにAdaptivePoseを用いる。
論文 参考訳(メタデータ) (2022-10-08T12:54:20Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - Unsupervised 3D Human Pose Representation with Viewpoint and Pose
Disentanglement [63.853412753242615]
優れた3次元ポーズ表現を学習することは、人間のポーズ関連タスクにとって重要である。
本稿では,3次元ポーズ表現を学習するために,新しいシームズ・デノナイズドオートエンコーダを提案する。
提案手法は,2つの本質的に異なるタスクに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-14T14:25:22Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - AnimePose: Multi-person 3D pose estimation and animation [9.323689681059504]
動作中の人間の3Dアニメーションは、人体全体に複数のモーショントラッカーを配置して、すべての手足の動きを追跡するため、非常に難しい。
これは時間がかかり、運動センサー付きエキソスケルトンボディスーツの着用が不快になる可能性がある。
深層学習を用いた2次元映像から複数の人物の3次元アニメーションを生成する方法を提案する。
論文 参考訳(メタデータ) (2020-02-06T11:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。