論文の概要: Few-shots Portrait Generation with Style Enhancement and Identity
Preservation
- arxiv url: http://arxiv.org/abs/2303.00377v1
- Date: Wed, 1 Mar 2023 10:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 15:15:50.814019
- Title: Few-shots Portrait Generation with Style Enhancement and Identity
Preservation
- Title(参考訳): スタイル強化とアイデンティティ保護を併用した画像画像生成
- Authors: Runchuan Zhu, Naye Ji, Youbing Zhao, Fan Zhang
- Abstract要約: StyleIdentityGANモデルは、生成された肖像画のアイデンティティと芸術性を同時に確保することができる。
スタイル強化モジュールは、生成した仮想顔画像の芸術性を改善するために、デカップリングと転送の芸術的スタイルの特徴に焦点を当てている。
アートやアイデンティティ効果の最先端手法よりもStyleIdentityGANの方が優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 3.6937810031393123
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Nowadays, the wide application of virtual digital human promotes the
comprehensive prosperity and development of digital culture supported by
digital economy. The personalized portrait automatically generated by AI
technology needs both the natural artistic style and human sentiment. In this
paper, we propose a novel StyleIdentityGAN model, which can ensure the identity
and artistry of the generated portrait at the same time. Specifically, the
style-enhanced module focuses on artistic style features decoupling and
transferring to improve the artistry of generated virtual face images.
Meanwhile, the identity-enhanced module preserves the significant features
extracted from the input photo. Furthermore, the proposed method requires a
small number of reference style data. Experiments demonstrate the superiority
of StyleIdentityGAN over state-of-art methods in artistry and identity effects,
with comparisons done qualitatively, quantitatively and through a perceptual
user study. Code has been released on Github3.
- Abstract(参考訳): 今日、仮想デジタル人間の幅広い応用は、デジタル経済によって支えられたデジタル文化の包括的繁栄と発展を促進する。
AI技術によって自動的に生成されるパーソナライズされた肖像画は、自然な芸術様式と人間の感情の両方を必要とする。
本稿では,生成した肖像画の同一性と芸術性を同時に確保できる新しいスタイルIdentityGANモデルを提案する。
特に、スタイルエンハンスドモジュールは、生成した仮想顔画像の芸術性を改善するために、デカップリングと転送の芸術的スタイル機能に焦点を当てている。
一方、アイデンティティ強化モジュールは、入力写真から抽出した重要な特徴を保存する。
さらに,提案手法では,少数の参照スタイルデータを必要とする。
芸術効果とアイデンティティ効果の最先端手法に対するStyleIdentityGANの優位性を,質的に,定量的に,そして知覚的ユーザスタディを通じて比較した。
コードはGithub3でリリースされた。
関連論文リスト
- Imagine yourself: Tuning-Free Personalized Image Generation [39.63411174712078]
私たちは、パーソナライズされた画像生成用に設計された最先端のモデルであるImagine yourselfを紹介します。
チューニング不要のモデルとして機能し、個別に調整することなく、すべてのユーザが共有フレームワークを活用できる。
我々の研究は、Imagine自身が最先端のパーソナライズモデルを超え、アイデンティティ保存、視覚的品質、テキストアライメントにおいて優れた能力を示すことを示した。
論文 参考訳(メタデータ) (2024-09-20T09:21:49Z) - CreativeSynth: Creative Blending and Synthesis of Visual Arts based on
Multimodal Diffusion [74.44273919041912]
大規模なテキスト・画像生成モデルは印象的な進歩を遂げ、高品質な画像を合成する能力を示している。
しかし、これらのモデルを芸術的な画像編集に適用することは、2つの重要な課題を提起する。
我々は,マルチモーダル入力をコーディネートする拡散モデルに基づく,革新的な統一フレームワークCreative Synthを構築した。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - PortraitBooth: A Versatile Portrait Model for Fast Identity-preserved
Personalization [92.90392834835751]
PortraitBoothは高効率、堅牢なID保存、表現編集可能な画像生成のために設計されている。
PortraitBoothは計算オーバーヘッドを排除し、アイデンティティの歪みを軽減する。
生成した画像の多様な表情に対する感情認識のクロスアテンション制御が組み込まれている。
論文 参考訳(メタデータ) (2023-12-11T13:03:29Z) - DemoCaricature: Democratising Caricature Generation with a Rough Sketch [80.90808879991182]
我々は、個々人が写真と概念スケッチだけで個人化された似顔絵を作れるように、似顔絵生成を民主化します。
私たちの目標は、スケッチに固有の創造性と主観性を保ちながら、抽象化とアイデンティティの微妙なバランスを取ることです。
論文 参考訳(メタデータ) (2023-12-07T15:35:42Z) - FaceStudio: Put Your Face Everywhere in Seconds [23.381791316305332]
アイデンティティを保存する画像合成は、パーソナライズされたスタイリスティックなタッチを加えながら、被験者のアイデンティティを維持することを目指している。
Textual InversionやDreamBoothといった従来の手法は、カスタムイメージ作成に力を入れている。
本研究は,人間の画像に焦点をあてたアイデンティティ保存合成への新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-05T11:02:45Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Generative AI Model for Artistic Style Transfer Using Convolutional
Neural Networks [0.0]
芸術的なスタイルの転送は、ある画像の内容を別の芸術的なスタイルに融合させ、ユニークな視覚的な構成を作り出すことである。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいスタイル伝達手法の概要を概説する。
論文 参考訳(メタデータ) (2023-10-27T16:21:17Z) - Enhancing the Authenticity of Rendered Portraits with
Identity-Consistent Transfer Learning [30.64677966402945]
本稿では,「不気味な谷」効果を効果的に緩和できる写真リアルな肖像画生成フレームワークを提案する。
私たちのキーとなる考え方は、トランスファーラーニングを使って、レンダリングされた肖像画の潜在空間から実際の肖像画へのアイデンティティ一貫性のあるマッピングを学ぶことです。
論文 参考訳(メタデータ) (2023-10-06T12:20:40Z) - Face Cartoonisation For Various Poses Using StyleGAN [0.7673339435080445]
本論文は,顔のマンガ化を実現するための革新的アプローチとして,顔の同一性を保ち,様々なポーズを付加する手法を提案する。
本研究では、画像からポーズ情報とアイデンティティ情報をキャプチャし、StyleGAN潜在空間内に対応する埋め込みを生成するエンコーダを導入する。
目的が漫画化である場合, エンコーダがStyleGAN出力にどのように適応し, アイデンティティをよりよく保存するかを, 広範囲にわたる実験により示す。
論文 参考訳(メタデータ) (2023-09-26T13:10:25Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - Quality Metric Guided Portrait Line Drawing Generation from Unpaired
Training Data [88.78171717494688]
本研究では,顔画像から肖像画への自動変換手法を提案する。
本手法は,(1)1つのネットワークを用いて複数のスタイルで高品質な肖像画を生成することを学習し,(2)トレーニングデータに見つからない「新しいスタイル」の肖像画を生成する。
論文 参考訳(メタデータ) (2022-02-08T06:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。