論文の概要: MyStyle: A Personalized Generative Prior
- arxiv url: http://arxiv.org/abs/2203.17272v1
- Date: Thu, 31 Mar 2022 17:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:15:18.843634
- Title: MyStyle: A Personalized Generative Prior
- Title(参考訳): MyStyle: パーソナライズされた生成プリミティブ
- Authors: Yotam Nitzan, Kfir Aberman, Qiurui He, Orly Liba, Michal Yarom, Yossi
Gandelsman, Inbar Mosseri, Yael Pritch, Daniel Cohen-or
- Abstract要約: MyStyleはパーソナライズされたディープジェネレーティブで、個人を数枚のショットで訓練する。
MyStyleは、特定の人の画像を再構成、拡張、編集することができる。
- 参考スコア(独自算出の注目度): 38.3436972491162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce MyStyle, a personalized deep generative prior trained with a few
shots of an individual. MyStyle allows to reconstruct, enhance and edit images
of a specific person, such that the output is faithful to the person's key
facial characteristics. Given a small reference set of portrait images of a
person (~100), we tune the weights of a pretrained StyleGAN face generator to
form a local, low-dimensional, personalized manifold in the latent space. We
show that this manifold constitutes a personalized region that spans latent
codes associated with diverse portrait images of the individual. Moreover, we
demonstrate that we obtain a personalized generative prior, and propose a
unified approach to apply it to various ill-posed image enhancement problems,
such as inpainting and super-resolution, as well as semantic editing. Using the
personalized generative prior we obtain outputs that exhibit high-fidelity to
the input images and are also faithful to the key facial characteristics of the
individual in the reference set. We demonstrate our method with fair-use images
of numerous widely recognizable individuals for whom we have the prior
knowledge for a qualitative evaluation of the expected outcome. We evaluate our
approach against few-shots baselines and show that our personalized prior,
quantitatively and qualitatively, outperforms state-of-the-art alternatives.
- Abstract(参考訳): MyStyleはパーソナライズされたディープジェネレーティブで、個人の数枚のショットで訓練される。
mystyleは特定の人物の画像を再構築し、強化し、編集することができるので、出力は人の重要な顔特性に忠実である。
人物の肖像画の小さな参照セット(〜100)が与えられた場合、トレーニング済みのStyleGANフェイスジェネレータの重量を調整し、潜在空間内の局所的で低次元のパーソナライズされた多様体を形成する。
この多様体は、個人の多様なポートレート画像に関連付けられた潜在コードにまたがるパーソナライズされた領域を構成する。
さらに, 個人化された生成先行情報を取得し, インペイントや高解像度化, セマンティック編集など, 様々な不適切な画像強調問題に適用するための統一的なアプローチを提案する。
このパーソナライズされた生成前処理を用いて、入力画像に対して高い忠実度を示し、参照セット内の個人の重要な顔特性に忠実な出力を得る。
提案手法は,期待された結果の質的評価に先立つ知識を持つ多くの広く認識可能な人物のフェアユース画像を用いて実証する。
我々のアプローチは、数ショットベースラインに対して評価し、我々のパーソナライズされた先行的、定量的、質的に、最先端の代替手段よりも優れています。
関連論文リスト
- Foundation Cures Personalization: Recovering Facial Personalized Models' Prompt Consistency [33.35678923549471]
FreeCureは、基礎モデル自体から固有の知識を活用して、パーソナライゼーションモデルの迅速な一貫性を改善する、トレーニング不要のフレームワークである。
パーソナライズモデルの出力における複数の属性を、新しいノイズブリーディング戦略と反転に基づくプロセスによって強化する。
論文 参考訳(メタデータ) (2024-11-22T15:21:38Z) - FlashFace: Human Image Personalization with High-fidelity Identity Preservation [59.76645602354481]
FlashFaceを使うと、ユーザーは自分の写真を簡単にパーソナライズできる。
我々のアプローチは、高忠実度ID保存とより良い指示に従うことによって、既存の人間の写真カスタマイズ方法と区別できる。
論文 参考訳(メタデータ) (2024-03-25T17:59:57Z) - IDAdapter: Learning Mixed Features for Tuning-Free Personalization of Text-to-Image Models [31.762112403595612]
IDAdapterは、単一の顔画像からパーソナライズされた画像生成における多様性とアイデンティティの保存を強化する、チューニング不要なアプローチである。
トレーニング期間中、特定のアイデンティティの複数の参照画像から混合した特徴を取り入れ、アイデンティティ関連コンテンツの詳細を充実させる。
論文 参考訳(メタデータ) (2024-03-20T12:13:04Z) - Pick-and-Draw: Training-free Semantic Guidance for Text-to-Image
Personalization [56.12990759116612]
Pick-and-Drawは、パーソナライズ手法のアイデンティティ一貫性と生成多様性を高めるためのトレーニング不要なセマンティックガイダンスアプローチである。
提案手法は、パーソナライズされた拡散モデルに適用可能であり、単一の参照画像のみを必要とする。
論文 参考訳(メタデータ) (2024-01-30T05:56:12Z) - PALP: Prompt Aligned Personalization of Text-to-Image Models [68.91005384187348]
既存のパーソナライズ手法は、パーソナライズ能力や複雑なプロンプトへのアライメントを損なう。
本稿では,この問題に対処するエフィンスル・プロンプトのためのパーソナライズ手法に着目した新しいアプローチを提案する。
本手法はテキストアライメントの改善に優れ,複雑かつ複雑なプロンプトによる画像作成を可能にする。
論文 参考訳(メタデータ) (2024-01-11T18:35:33Z) - Personalized Restoration via Dual-Pivot Tuning [18.912158172904654]
そこで我々は、Dual-Pivot Tuningと呼ばれるパーソナライズされた復元方法を提案する。
私たちのキーとなる観察は、最適なパーソナライズのために、生成モデルは固定されたテキストピボットを中心に調整されるべきであるということです。
このアプローチは、パーソナライゼーションが復元プロセスに干渉しないことを保証し、結果として、人物のアイデンティティと劣化した画像の属性に忠実な自然な外観をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:57:49Z) - MyStyle++: A Controllable Personalized Generative Prior [13.030741541265428]
最近導入されたMyStyleは、トレーニング済みのStyleGANフェイスジェネレータの重量を、個人の数枚の画像に調整する。
MyStyleは生成された画像の属性を正確に制御していない。
提案手法はMyStyle++と呼ばれ,属性を制御可能な個人画像の合成,編集,拡張が可能であることを実証する。
論文 参考訳(メタデータ) (2023-06-08T01:35:43Z) - Identity Encoder for Personalized Diffusion [57.1198884486401]
パーソナライズのためのエンコーダに基づくアプローチを提案する。
我々は、被写体の参照画像の集合からアイデンティティ表現を抽出できるアイデンティティエンコーダを学習する。
提案手法は画像生成と再構成の両方において既存の微調整に基づくアプローチより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-14T23:32:24Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。