論文の概要: Pose Guidance by Supervision: A Framework for Clothes-Changing Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2312.05634v1
- Date: Sat, 9 Dec 2023 18:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:35:03.051126
- Title: Pose Guidance by Supervision: A Framework for Clothes-Changing Person
Re-Identification
- Title(参考訳): スーパービジョンによるPose Guidance: 衣服交換者の再識別のためのフレームワーク
- Authors: Quoc-Huy Trinh and Nhat-Tan Bui and Phuoc-Thao Vo Thi and Hai-Dang
Nguyen and Debesh Jha and Ulas Bagci and Minh-Triet Tran
- Abstract要約: 人物再同定(ReID)タスクは、監視カメラによる複数の個人追跡を強化することを目的としている。
ReIDの主な課題の1つは着替えであり、これは同じ人が異なる服を着ていることを意味する。
ReIDタスク内でポーズガイダンスを学習するための効果的なフレームワークであるPose Guidance by Supervision(PGS)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.709243857842895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person Re-Identification (ReID) task seeks to enhance the tracking of
multiple individuals by surveillance cameras. It provides additional support
for multimodal tasks, including text-based person retrieval and human matching.
One of the primary challenges in ReID is clothes-changing, which means the same
person wears different clothes. While previous methods have achieved
competitive results in maintaining clothing data consistency and handling
clothing change data, they still tend to rely excessively on clothing
information, thus limiting performance due to the dynamic nature of human
appearances. To mitigate this challenge, we propose the Pose Guidance by
Supervision (PGS) framework, an effective framework for learning pose guidance
within the ReID task. This approach leverages pose knowledge and human part
information from the pre-trained features to guide the network focus on
clothes-irrelevant information, thus alleviating the clothes' influence on the
deep learning model. Extensive experiments on five benchmark datasets
demonstrate that our framework achieves competitive results compared with other
state-of-the-art methods, which holds promise for developing robust models in
the ReID task. Our code is available at https://github.com/huyquoctrinh/PGS.
- Abstract(参考訳): 人物再同定(ReID)タスクは、監視カメラによる複数の個人追跡を強化することを目的としている。
テキストベースの人物検索やヒューマンマッチングなど、マルチモーダルタスクへの追加サポートを提供する。
ReIDの主な課題の1つは着替えであり、これは同じ人が異なる服を着ていることを意味する。
従来の手法は服のデータの整合性を維持し、服の着替えデータを扱うという競合的な結果を得たが、それでも服の情報に過度に依存する傾向にあり、人間の外見のダイナミックな性質によって性能が制限される傾向にある。
この課題を軽減するために,ReIDタスク内でポーズガイダンスを学習するための効果的なフレームワークであるPose Guidance by Supervision(PGS)フレームワークを提案する。
このアプローチは、事前訓練された特徴からのポーズ知識と人的部分情報を活用して、衣服関連情報にネットワークを集中させることにより、深層学習モデルに対する衣服の影響を軽減する。
5つのベンチマークデータセットに関する広範な実験は、reidタスクで堅牢なモデルを開発することを約束する他の最先端メソッドと比較して、我々のフレームワークが競争力のある結果を達成していることを示している。
私たちのコードはhttps://github.com/huyquoctrinh/pgsで利用可能です。
関連論文リスト
- Closely Interactive Human Reconstruction with Proxemics and Physics-Guided Adaption [64.07607726562841]
既存の人間再建アプローチは主に、正確なポーズの回復や侵入を避けることに焦点を当てている。
本研究では,モノクロ映像から密に対話的な人間を再構築する作業に取り組む。
本稿では,視覚情報の欠如を補うために,確率的行動や物理からの知識を活用することを提案する。
論文 参考訳(メタデータ) (2024-04-17T11:55:45Z) - Social-MAE: Social Masked Autoencoder for Multi-person Motion Representation Learning [16.85316898267404]
マルチ対人動作データのためのトランスフォーマーベースのマスク付きオートエンコーダフレームワークであるSocial-MAEを紹介する。
このフレームワークは、マスク付きモデリングを使用して、エンコーダを事前訓練し、マスク付きヒト関節軌道を再構築する。
それは、多人数のポーズ予測、社会的グループ化、社会的行動理解など、様々な高度な社会的タスクに関する最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-04-08T14:54:54Z) - AdaptivePose++: A Powerful Single-Stage Network for Multi-Person Pose
Regression [66.39539141222524]
そこで本研究では,ヒトの部位を適応点として表現し,微細な身体表現法を提案する。
提案するボディ表現では,AdaptivePoseと呼ばれる,コンパクトなシングルステージ多人数ポーズ回帰ネットワークを提供する。
本稿では,AdaptivePoseの有効性を検証するために,2D/3D多人数ポーズ推定タスクにAdaptivePoseを用いる。
論文 参考訳(メタデータ) (2022-10-08T12:54:20Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - PoseTrackReID: Dataset Description [97.7241689753353]
詩情報は、背景や閉塞音から有用な特徴情報を遠ざけるのに役立つ。
PoseTrackReIDでは、人物のリIDと複数人のポーズトラッキングのギャップを埋めたいと考えています。
このデータセットは、マルチフレームの人物のre-IDに関する現在の最先端メソッドに対する優れたベンチマークを提供する。
論文 参考訳(メタデータ) (2020-11-12T07:44:25Z) - Unsupervised 3D Human Pose Representation with Viewpoint and Pose
Disentanglement [63.853412753242615]
優れた3次元ポーズ表現を学習することは、人間のポーズ関連タスクにとって重要である。
本稿では,3次元ポーズ表現を学習するために,新しいシームズ・デノナイズドオートエンコーダを提案する。
提案手法は,2つの本質的に異なるタスクに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-14T14:25:22Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - AnimePose: Multi-person 3D pose estimation and animation [9.323689681059504]
動作中の人間の3Dアニメーションは、人体全体に複数のモーショントラッカーを配置して、すべての手足の動きを追跡するため、非常に難しい。
これは時間がかかり、運動センサー付きエキソスケルトンボディスーツの着用が不快になる可能性がある。
深層学習を用いた2次元映像から複数の人物の3次元アニメーションを生成する方法を提案する。
論文 参考訳(メタデータ) (2020-02-06T11:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。