論文の概要: Pose Invariant Person Re-Identification using Robust Pose-transformation
GAN
- arxiv url: http://arxiv.org/abs/2105.00930v1
- Date: Sun, 11 Apr 2021 15:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 07:29:07.252330
- Title: Pose Invariant Person Re-Identification using Robust Pose-transformation
GAN
- Title(参考訳): ロバスト・ポーズ・トランスフォーメーションGANを用いたポーズ不変人物再同定
- Authors: Arnab Karmakar and Deepak Mishra
- Abstract要約: 人物再識別(re-ID)は、興味ある人物の単一の事例から、画像ギャラリーから人物の画像を検索することを目的としている。
いくつかの進歩にもかかわらず、ロバストな人物再同定のための識別的アイデンティティ感と視点不変特徴の学習は、人間のポーズの変化が大きいため、大きな課題である。
本稿では,ポーズ回帰と特徴融合を組み合わせた生成逆数ネットワークの画像生成機能を利用して,ポーズ不変な特徴学習を実現するre-IDパイプラインを提案する。
- 参考スコア(独自算出の注目度): 11.338815177557645
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Person re-identification (re-ID) aims to retrieve a person's images from an
image gallery, given a single instance of the person of interest. Despite
several advancements, learning discriminative identity-sensitive and viewpoint
invariant features for robust Person Re-identification is a major challenge
owing to large pose variation of humans. This paper proposes a re-ID pipeline
that utilizes the image generation capability of Generative Adversarial
Networks combined with pose regression and feature fusion to achieve pose
invariant feature learning. The objective is to model a given person under
different viewpoints and large pose changes and extract the most discriminative
features from all the appearances. The pose transformational GAN (pt-GAN)
module is trained to generate a person's image in any given pose. In order to
identify the most significant poses for discriminative feature extraction, a
Pose Regression module is proposed. The given instance of the person is
modelled in varying poses and these features are effectively combined through
the Feature Fusion Network. The final re-ID model consisting of these 3
sub-blocks, alleviates the pose dependence in person re-ID and outperforms the
state-of-the-art GAN based models for re-ID in 4 benchmark datasets. The
proposed model is robust to occlusion, scale and illumination, thereby
outperforms the state-of-the-art models in terms of improvement over baseline.
- Abstract(参考訳): 人物再識別(re-ID)は、興味ある人物の単一の事例から、画像ギャラリーから人物の画像を取得することを目的としている。
いくつかの進歩にもかかわらず、ロバストな人物再同定のための識別的アイデンティティ感と視点不変特徴の学習は、人間のポーズの変化が大きいため、大きな課題である。
本稿では,ポーズ回帰と特徴融合を組み合わせた生成逆数ネットワークの画像生成機能を利用して,ポーズ不変な特徴学習を実現するre-IDパイプラインを提案する。
目的は、異なる視点と大きなポーズの変化の下で特定の人物をモデル化し、あらゆる外観から最も識別的な特徴を抽出することである。
ポーズ変換GAN(pt-GAN)モジュールは、任意のポーズで人の画像を生成するように訓練される。
識別的特徴抽出の最も重要なポーズを特定するために,Pose Regressionモジュールを提案する。
人の与えられたインスタンスは様々なポーズでモデル化され、これらの機能は機能融合ネットワークを介して効果的に結合される。
これら3つのサブブロックからなる最後のre-IDモデルは、人によるre-IDのポーズ依存を緩和し、4つのベンチマークデータセットでre-IDのための最先端のGANベースモデルを上回るパフォーマンスを発揮する。
提案モデルは咬合, スケール, 照明に頑健であり, ベースラインに対する改善点では最先端モデルに勝っている。
関連論文リスト
- Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Pose-driven Attention-guided Image Generation for Person
Re-Identification [39.605062525247135]
複数人のポーズを生成するために,エンドツーエンドのポーズ駆動型ジェネレーション対人ネットワークを提案する。
ポーズ転送中の人のセマンティック情報を保存するためにセマンティック一貫性損失が提案される。
提案手法を人物再識別フレームワークに組み込むことにより,リアルなポーズ転送画像と最先端の再識別結果を実現できることを示した。
論文 参考訳(メタデータ) (2021-04-28T14:02:24Z) - Resolution-invariant Person ReID Based on Feature Transformation and
Self-weighted Attention [14.777001614779806]
Person Re-identification (ReID) は、画像やビデオのシーケンスで同一人物と一致することを目的としたコンピュータビジョンタスクである。
本研究では,ReID特徴変換(RAFT)モジュールとSWA(Self-weighted attention)ReIDモジュールを備えた,新しい2ストリームネットワークを提案する。
どちらのモジュールも、解決不変表現を得るために共同で訓練される。
論文 参考訳(メタデータ) (2021-01-12T15:22:41Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - Person image generation with semantic attention network for person
re-identification [9.30413920076019]
本稿では,意味的注意ネットワークと呼ばれる新しい人物のポーズ誘導画像生成手法を提案する。
ネットワークはいくつかのセマンティックアテンションブロックで構成されており、各ブロックはポーズコードと衣服のテクスチャを保存および更新する。
他の方法と比較して、我々のネットワークはより優れた身体形状を特徴付けることができ、同時に衣服の属性を保持することができる。
論文 参考訳(メタデータ) (2020-08-18T12:18:51Z) - Style Normalization and Restitution for Generalizable Person
Re-identification [89.482638433932]
我々は、ソースドメイン上でモデルをトレーニングするが、ターゲットドメイン上での一般化や性能をよく行うことのできる、一般化可能な人物ReIDフレームワークを設計する。
本稿では,シンプルで効果的なスタイル正規化・再構成(SNR)モジュールを提案する。
SNRモジュールによって強化された我々のモデルは、複数の広く使われているReIDベンチマークにおいて最先端のドメイン一般化アプローチよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-05-22T07:15:10Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - MirrorNet: A Deep Bayesian Approach to Reflective 2D Pose Estimation
from Human Images [42.27703025887059]
標準的な教師ありアプローチの大きな問題は、しばしば解剖学的に不可解なポーズをもたらすことである。
ポーズアノテーションを使わずに画像を効果的に活用できる半教師付き手法を提案する。
実験の結果,提案した反射型アーキテクチャが解剖学的に妥当なポーズを推定できることが示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:02:48Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。