論文の概要: Pose Manipulation with Identity Preservation
- arxiv url: http://arxiv.org/abs/2004.09169v1
- Date: Mon, 20 Apr 2020 09:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:19:50.862282
- Title: Pose Manipulation with Identity Preservation
- Title(参考訳): アイデンティティ保護によるポーズ操作
- Authors: Andrei-Timotei Ardelean, Lucian Mircea Sasu
- Abstract要約: 本稿では,文字適応性正規化GAN(CainGAN)を提案する。
CainGANは特定の個人から顔の数字を受け取り、その人物の身元を保存しながら新しい顔を生成する。
実験の結果, 生成画像の品質は, 推論時に使用する入力セットのサイズと一致していることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes a new model which generates images in novel poses e.g.
by altering face expression and orientation, from just a few instances of a
human subject. Unlike previous approaches which require large datasets of a
specific person for training, our approach may start from a scarce set of
images, even from a single image. To this end, we introduce Character Adaptive
Identity Normalization GAN (CainGAN) which uses spatial characteristic features
extracted by an embedder and combined across source images. The identity
information is propagated throughout the network by applying conditional
normalization. After extensive adversarial training, CainGAN receives figures
of faces from a certain individual and produces new ones while preserving the
person's identity. Experimental results show that the quality of generated
images scales with the size of the input set used during inference.
Furthermore, quantitative measurements indicate that CainGAN performs better
compared to other methods when training data is limited.
- Abstract(参考訳): 本稿では,人間の被写体の数例から顔の表情や向きを変化させるなど,新しいポーズで画像を生成する新しいモデルについて述べる。
トレーニングのために特定の人物の大規模なデータセットを必要とする従来のアプローチとは異なり、このアプローチは単一の画像からでも、画像の少ないセットから始まります。
この目的のために,埋め込み器によって抽出され,ソース画像間で結合された空間特性を用いたキャインGAN(CainGAN)を提案する。
身元情報は条件付き正規化を適用してネットワーク全体に伝播する。
大規模な対人訓練の後、CainGANは特定の個人から顔の像を受け取り、その人物の身元を保ちながら新しい顔を生成する。
実験の結果, 生成画像の品質は, 推論時に使用する入力セットの大きさに比例することがわかった。
さらに、CainGANはトレーニングデータに制限がある場合、他の方法よりも優れたパフォーマンスを示す。
関連論文リスト
- Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - CleftGAN: Adapting A Style-Based Generative Adversarial Network To
Create Images Depicting Cleft Lip Deformity [2.1647227058902336]
深層学習に基づく口唇生成装置を構築し, 口唇のファクシミリを高精細度に表現した, ほぼ無限の人工画像を生成する。
我々は、StyleGAN-ADAの異なるバージョンをテストするトランスファー学習プロトコルを実行した。
様々な裂裂の変形を描写した訓練画像は、回転、スケーリング、色調整、背景のぼやけを調整するために前処理された。
論文 参考訳(メタデータ) (2023-10-12T01:25:21Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - Identity Encoder for Personalized Diffusion [57.1198884486401]
パーソナライズのためのエンコーダに基づくアプローチを提案する。
我々は、被写体の参照画像の集合からアイデンティティ表現を抽出できるアイデンティティエンコーダを学習する。
提案手法は画像生成と再構成の両方において既存の微調整に基づくアプローチより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-14T23:32:24Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Few-shot Image Generation via Masked Discrimination [20.998032566820907]
少ないショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
現代のGANでは、ほんの数枚の画像で訓練された場合、過度な適合を避けることは困難である。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-27T06:02:22Z) - MorphGAN: One-Shot Face Synthesis GAN for Detecting Recognition Bias [13.162012586770576]
本論文では, 頭部ポーズと表情調節を, 既視者の画像に適用するシミュレータについて述べる。
顔の小さなデータセットを新しいポーズと表現で拡張することで、増強やデータの不足に応じて、認識性能を最大9%向上することを示す。
論文 参考訳(メタデータ) (2020-12-09T18:43:03Z) - Person image generation with semantic attention network for person
re-identification [9.30413920076019]
本稿では,意味的注意ネットワークと呼ばれる新しい人物のポーズ誘導画像生成手法を提案する。
ネットワークはいくつかのセマンティックアテンションブロックで構成されており、各ブロックはポーズコードと衣服のテクスチャを保存および更新する。
他の方法と比較して、我々のネットワークはより優れた身体形状を特徴付けることができ、同時に衣服の属性を保持することができる。
論文 参考訳(メタデータ) (2020-08-18T12:18:51Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。