論文の概要: Pose Invariant Person Re-Identification using Robust Pose-transformation
GAN
- arxiv url: http://arxiv.org/abs/2105.00930v1
- Date: Sun, 11 Apr 2021 15:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 07:29:07.252330
- Title: Pose Invariant Person Re-Identification using Robust Pose-transformation
GAN
- Title(参考訳): ロバスト・ポーズ・トランスフォーメーションGANを用いたポーズ不変人物再同定
- Authors: Arnab Karmakar and Deepak Mishra
- Abstract要約: 人物再識別(re-ID)は、興味ある人物の単一の事例から、画像ギャラリーから人物の画像を検索することを目的としている。
いくつかの進歩にもかかわらず、ロバストな人物再同定のための識別的アイデンティティ感と視点不変特徴の学習は、人間のポーズの変化が大きいため、大きな課題である。
本稿では,ポーズ回帰と特徴融合を組み合わせた生成逆数ネットワークの画像生成機能を利用して,ポーズ不変な特徴学習を実現するre-IDパイプラインを提案する。
- 参考スコア(独自算出の注目度): 11.338815177557645
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Person re-identification (re-ID) aims to retrieve a person's images from an
image gallery, given a single instance of the person of interest. Despite
several advancements, learning discriminative identity-sensitive and viewpoint
invariant features for robust Person Re-identification is a major challenge
owing to large pose variation of humans. This paper proposes a re-ID pipeline
that utilizes the image generation capability of Generative Adversarial
Networks combined with pose regression and feature fusion to achieve pose
invariant feature learning. The objective is to model a given person under
different viewpoints and large pose changes and extract the most discriminative
features from all the appearances. The pose transformational GAN (pt-GAN)
module is trained to generate a person's image in any given pose. In order to
identify the most significant poses for discriminative feature extraction, a
Pose Regression module is proposed. The given instance of the person is
modelled in varying poses and these features are effectively combined through
the Feature Fusion Network. The final re-ID model consisting of these 3
sub-blocks, alleviates the pose dependence in person re-ID and outperforms the
state-of-the-art GAN based models for re-ID in 4 benchmark datasets. The
proposed model is robust to occlusion, scale and illumination, thereby
outperforms the state-of-the-art models in terms of improvement over baseline.
- Abstract(参考訳): 人物再識別(re-ID)は、興味ある人物の単一の事例から、画像ギャラリーから人物の画像を取得することを目的としている。
いくつかの進歩にもかかわらず、ロバストな人物再同定のための識別的アイデンティティ感と視点不変特徴の学習は、人間のポーズの変化が大きいため、大きな課題である。
本稿では,ポーズ回帰と特徴融合を組み合わせた生成逆数ネットワークの画像生成機能を利用して,ポーズ不変な特徴学習を実現するre-IDパイプラインを提案する。
目的は、異なる視点と大きなポーズの変化の下で特定の人物をモデル化し、あらゆる外観から最も識別的な特徴を抽出することである。
ポーズ変換GAN(pt-GAN)モジュールは、任意のポーズで人の画像を生成するように訓練される。
識別的特徴抽出の最も重要なポーズを特定するために,Pose Regressionモジュールを提案する。
人の与えられたインスタンスは様々なポーズでモデル化され、これらの機能は機能融合ネットワークを介して効果的に結合される。
これら3つのサブブロックからなる最後のre-IDモデルは、人によるre-IDのポーズ依存を緩和し、4つのベンチマークデータセットでre-IDのための最先端のGANベースモデルを上回るパフォーマンスを発揮する。
提案モデルは咬合, スケール, 照明に頑健であり, ベースラインに対する改善点では最先端モデルに勝っている。
関連論文リスト
- Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification [2.552131151698595]
我々はトランスフォーマーに基づく人物識別フレームワークであるSSSC-TransReIDを組み合わせた新しい自己監督・監督手法を提案した。
我々は、ネガティブなサンプルや追加の事前学習なしに、人物の再識別のための特徴表現を強化することができる自己教師付きコントラスト学習ブランチを設計した。
提案モデルでは, 平均平均精度(mAP) とランク1の精度において, 最先端のReID手法よりも優れたRe-ID性能が得られ, 高いマージンで性能が向上する。
論文 参考訳(メタデータ) (2024-10-21T03:17:25Z) - Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - Pose-dIVE: Pose-Diversified Augmentation with Diffusion Model for Person Re-Identification [28.794827024749658]
Pose-dIVEは、スパースで表現不足な人間のポーズとカメラ視点の例をトレーニングデータに組み込んだ、新しいデータ拡張アプローチである。
我々の目標は、トレーニングデータセットを拡張して、既存のRe-IDモデルで人間のポーズやカメラ視点の変化に偏らない特徴を学習できるようにすることである。
論文 参考訳(メタデータ) (2024-06-23T07:48:21Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Pose-driven Attention-guided Image Generation for Person
Re-Identification [39.605062525247135]
複数人のポーズを生成するために,エンドツーエンドのポーズ駆動型ジェネレーション対人ネットワークを提案する。
ポーズ転送中の人のセマンティック情報を保存するためにセマンティック一貫性損失が提案される。
提案手法を人物再識別フレームワークに組み込むことにより,リアルなポーズ転送画像と最先端の再識別結果を実現できることを示した。
論文 参考訳(メタデータ) (2021-04-28T14:02:24Z) - Resolution-invariant Person ReID Based on Feature Transformation and
Self-weighted Attention [14.777001614779806]
Person Re-identification (ReID) は、画像やビデオのシーケンスで同一人物と一致することを目的としたコンピュータビジョンタスクである。
本研究では,ReID特徴変換(RAFT)モジュールとSWA(Self-weighted attention)ReIDモジュールを備えた,新しい2ストリームネットワークを提案する。
どちらのモジュールも、解決不変表現を得るために共同で訓練される。
論文 参考訳(メタデータ) (2021-01-12T15:22:41Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - Style Normalization and Restitution for Generalizable Person
Re-identification [89.482638433932]
我々は、ソースドメイン上でモデルをトレーニングするが、ターゲットドメイン上での一般化や性能をよく行うことのできる、一般化可能な人物ReIDフレームワークを設計する。
本稿では,シンプルで効果的なスタイル正規化・再構成(SNR)モジュールを提案する。
SNRモジュールによって強化された我々のモデルは、複数の広く使われているReIDベンチマークにおいて最先端のドメイン一般化アプローチよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-05-22T07:15:10Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。