論文の概要: Person image generation with semantic attention network for person
re-identification
- arxiv url: http://arxiv.org/abs/2008.07884v1
- Date: Tue, 18 Aug 2020 12:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:39:38.119602
- Title: Person image generation with semantic attention network for person
re-identification
- Title(参考訳): 人物識別のための意味的注意ネットワークを用いた人物画像生成
- Authors: Meichen Liu, Kejun Wang, Juihang Ji and Shuzhi Sam Ge
- Abstract要約: 本稿では,意味的注意ネットワークと呼ばれる新しい人物のポーズ誘導画像生成手法を提案する。
ネットワークはいくつかのセマンティックアテンションブロックで構成されており、各ブロックはポーズコードと衣服のテクスチャを保存および更新する。
他の方法と比較して、我々のネットワークはより優れた身体形状を特徴付けることができ、同時に衣服の属性を保持することができる。
- 参考スコア(独自算出の注目度): 9.30413920076019
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose variation is one of the key factors which prevents the network from
learning a robust person re-identification (Re-ID) model. To address this
issue, we propose a novel person pose-guided image generation method, which is
called the semantic attention network. The network consists of several semantic
attention blocks, where each block attends to preserve and update the pose code
and the clothing textures. The introduction of the binary segmentation mask and
the semantic parsing is important for seamlessly stitching foreground and
background in the pose-guided image generation. Compared with other methods,
our network can characterize better body shape and keep clothing attributes,
simultaneously. Our synthesized image can obtain better appearance and shape
consistency related to the original image. Experimental results show that our
approach is competitive with respect to both quantitative and qualitative
results on Market-1501 and DeepFashion. Furthermore, we conduct extensive
evaluations by using person re-identification (Re-ID) systems trained with the
pose-transferred person based augmented data. The experiment shows that our
approach can significantly enhance the person Re-ID accuracy.
- Abstract(参考訳): ポース変動は、ネットワークが堅牢な人物再識別(Re-ID)モデルを学ぶのを防ぐ重要な要因の1つである。
この問題に対処するために,セマンティックアテンションネットワークと呼ばれる新しい人物のポーズ誘導画像生成手法を提案する。
ネットワークはいくつかのセマンティックアテンションブロックで構成されており、各ブロックはポーズコードと衣服のテクスチャを保存および更新する。
ポーズ誘導画像生成における前景と背景をシームレスに縫い合わせるためには,バイナリセグメンテーションマスクの導入と意味解析が重要である。
他の方法と比較すると、ネットワークはより優れた体型を特徴付け、同時に衣服属性を保持することができる。
我々の合成画像は、元の画像に関する外観と形状の整合性を向上させることができる。
実験の結果,Market-1501とDeepFashionの定量的および定性的な結果と競合することがわかった。
さらに,人物再同定(re-id)システムを用いて,ポーズ伝達者に基づく拡張データを訓練することにより,広範囲な評価を行う。
実験の結果,このアプローチは人物再識別精度を著しく向上できることがわかった。
関連論文リスト
- StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - RetriBooru: Leakage-Free Retrieval of Conditions from Reference Images for Subject-Driven Generation [30.143033020296183]
拡散に基づく手法は、様々な高品質な画像を生成する能力を実証している。
顔と布の同一性の両方でアニメキャラクターをグループ化するマルチレベル同一性データセットRetriBooruを提案する。
条件付きエンコーダは複数の参照画像から異なる概念を検索する。
論文 参考訳(メタデータ) (2023-12-05T06:04:16Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Identity-Guided Collaborative Learning for Cloth-Changing Person
Reidentification [29.200286257496714]
着替え型ReIDのための新しいID誘導協調学習手法(IGCL)を提案する。
まず,衣服情報による干渉を合理的に低減するために,新しい衣服注意ストリームを設計する。
次に,人間のセマンティック・アテンションとボディー・ジグソー・ストリームを提案し,人間のセマンティック・情報を強調し,同じアイデンティティの異なるポーズをシミュレートする。
第3に、歩行者のアイデンティティ強化ストリームがさらに提案され、アイデンティティの重要性を高め、より好ましいアイデンティティロバストな特徴を抽出する。
論文 参考訳(メタデータ) (2023-04-10T06:05:54Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Pose-driven Attention-guided Image Generation for Person
Re-Identification [39.605062525247135]
複数人のポーズを生成するために,エンドツーエンドのポーズ駆動型ジェネレーション対人ネットワークを提案する。
ポーズ転送中の人のセマンティック情報を保存するためにセマンティック一貫性損失が提案される。
提案手法を人物再識別フレームワークに組み込むことにより,リアルなポーズ転送画像と最先端の再識別結果を実現できることを示した。
論文 参考訳(メタデータ) (2021-04-28T14:02:24Z) - Structure-aware Person Image Generation with Pose Decomposition and
Semantic Correlation [29.727033198797518]
高品質な人物画像生成のための構造認識フローベース手法を提案する。
人体を異なる意味部分に分解し、異なるネットワークを適用してこれらの部分のフロー場を別々に予測する。
提案手法は,ポーズの相違が大きい場合に高品質な結果を生成することができ,定性比較と定量的比較の両方において最先端の手法より優れる。
論文 参考訳(メタデータ) (2021-02-05T03:07:57Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - VAE/WGAN-Based Image Representation Learning For Pose-Preserving
Seamless Identity Replacement In Facial Images [15.855376604558977]
We present a novel variational generative adversarial network (VGAN) based on Wasserstein loss。
我々のネットワークは、ポーズ保存されたアイデンティティ・モーフィングとアイデンティティ保存されたポーズ・モーフィングの実行に利用できることを示す。
論文 参考訳(メタデータ) (2020-03-02T03:35:59Z) - Uncertainty-Aware Multi-Shot Knowledge Distillation for Image-Based
Object Re-Identification [93.39253443415392]
各画像の特徴学習を指導するために,同一のアイデンティティのマルチショットを活用することを提案する。
それは、同一物体の複数の画像から包括的特徴を学習する教師ネットワーク(T-net)と、1つの画像を入力として取る学生ネットワーク(S-net)から構成される。
提案手法の有効性を,一般的な車種と個人用車種に検証した。
論文 参考訳(メタデータ) (2020-01-15T09:39:05Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。