論文の概要: Semantic Consistency and Identity Mapping Multi-Component Generative
Adversarial Network for Person Re-Identification
- arxiv url: http://arxiv.org/abs/2104.13780v1
- Date: Wed, 28 Apr 2021 14:12:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 13:01:06.494576
- Title: Semantic Consistency and Identity Mapping Multi-Component Generative
Adversarial Network for Person Re-Identification
- Title(参考訳): 人物再同定のための意味的一貫性とアイデンティティマッピング多成分生成対向ネットワーク
- Authors: Amena Khatun, Simon Denman, Sridha Sridharan, Clinton Fookes
- Abstract要約: 本稿では,1つのドメインから複数のドメインへのスタイル適応を提供する,意味一貫性とアイデンティティマッピングの多成分生成対向ネットワーク(SC-IMGAN)を提案する。
提案手法は,6つの挑戦的人物リidデータセットにおける最先端技術よりも優れている。
- 参考スコア(独自算出の注目度): 39.605062525247135
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In a real world environment, person re-identification (Re-ID) is a
challenging task due to variations in lighting conditions, viewing angles, pose
and occlusions. Despite recent performance gains, current person Re-ID
algorithms still suffer heavily when encountering these variations. To address
this problem, we propose a semantic consistency and identity mapping
multi-component generative adversarial network (SC-IMGAN) which provides style
adaptation from one to many domains. To ensure that transformed images are as
realistic as possible, we propose novel identity mapping and semantic
consistency losses to maintain identity across the diverse domains. For the
Re-ID task, we propose a joint verification-identification quartet network
which is trained with generated and real images, followed by an effective
quartet loss for verification. Our proposed method outperforms state-of-the-art
techniques on six challenging person Re-ID datasets: CUHK01, CUHK03, VIPeR,
PRID2011, iLIDS and Market-1501.
- Abstract(参考訳): 現実の環境では、照明条件、視角、ポーズ、オクルージョンの変化により、人物の再識別(Re-ID)は難しい課題である。
最近のパフォーマンス向上にもかかわらず、現在の人物のRe-IDアルゴリズムは、これらのバリエーションに遭遇しても大きな被害を受けています。
この問題に対処するために,1つのドメインから複数のドメインへのスタイル適応を提供する,意味的一貫性とアイデンティティマッピングの多成分生成対向ネットワーク(SC-IMGAN)を提案する。
トランスフォーメーションイメージが可能な限り現実的なものであることを保証するため,我々は,新しいアイデンティティマッピングと意味的一貫性の損失を提案し,多様なドメイン間のアイデンティティを維持する。
Re-IDタスクでは、生成画像と実画像でトレーニングされた共同検証識別クォーテットネットワークを提案し、続いて有効なクォーテット損失を検証に用いた。
提案手法は,cuhk01,cuhk03,viper,prid2011,ilids,market-1501の6つの挑戦的人物リidデータセットにおける最先端技術を上回る。
関連論文リスト
- Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - ConsistentID: Portrait Generation with Multimodal Fine-Grained Identity Preserving [66.09976326184066]
ConsistentIDは、微細なマルチモーダル顔のプロンプト下での多彩な画像生成のための革新的な手法である。
我々は、50万以上の顔画像を持つ、きめ細かいポートレートデータセットFGIDを提示し、既存の顔データセットよりも多様性と包括性を提供する。
論文 参考訳(メタデータ) (2024-04-25T17:23:43Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - HFORD: High-Fidelity and Occlusion-Robust De-identification for Face
Privacy Protection [60.63915939982923]
顔の身元特定は、身元保護問題を解決するための実践的な方法である。
既存の顔の特定方法にはいくつかの問題がある。
これらの問題に対処するために,HFORD(High-Fidelity and Occlusion-Robust De-identification)法を提案する。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - StyleID: Identity Disentanglement for Anonymizing Faces [4.048444203617942]
この論文の主な貢献は、フィーチャ保存の匿名化フレームワークであるStyleIDの設計である。
コントリビューションの一環として,新しいアンタングル化指標,補足的アンタングル化法,およびアイデンティティ・アンタングル化に関する新たな知見を提示する。
StyleIDはチューナブルなプライバシを提供し、計算の複雑さが低く、現在の最先端ソリューションを上回っている。
論文 参考訳(メタデータ) (2022-12-28T12:04:24Z) - A Systematical Solution for Face De-identification [6.244117712209321]
異なるタスクにおいて、人々は顔の特定(De-ID)に様々な要件を持つ
本稿では,これらのDe-ID操作に適合する系統的解を提案する。
本手法は,様々な方法で顔データを柔軟に識別し,画像の画質が向上する。
論文 参考訳(メタデータ) (2021-07-19T02:02:51Z) - Pose-driven Attention-guided Image Generation for Person
Re-Identification [39.605062525247135]
複数人のポーズを生成するために,エンドツーエンドのポーズ駆動型ジェネレーション対人ネットワークを提案する。
ポーズ転送中の人のセマンティック情報を保存するためにセマンティック一貫性損失が提案される。
提案手法を人物再識別フレームワークに組み込むことにより,リアルなポーズ転送画像と最先端の再識別結果を実現できることを示した。
論文 参考訳(メタデータ) (2021-04-28T14:02:24Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。