論文の概要: MegaPortrait: Revisiting Diffusion Control for High-fidelity Portrait Generation
- arxiv url: http://arxiv.org/abs/2411.04357v1
- Date: Thu, 07 Nov 2024 01:30:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:38:45.955425
- Title: MegaPortrait: Revisiting Diffusion Control for High-fidelity Portrait Generation
- Title(参考訳): メガポートレート:高忠実なポートレート生成のための拡散制御の再検討
- Authors: Han Yang, Sotiris Anagnostidis, Enis Simsar, Thomas Hofmann,
- Abstract要約: MegaPortraitはコンピュータビジョンでパーソナライズされた肖像画を作成する革新的なシステムである。
Identity Net、Shading Net、Harmonization Netの3つのモジュールがある。
- 参考スコア(独自算出の注目度): 26.526983025608676
- License:
- Abstract: We propose MegaPortrait. It's an innovative system for creating personalized portrait images in computer vision. It has three modules: Identity Net, Shading Net, and Harmonization Net. Identity Net generates learned identity using a customized model fine-tuned with source images. Shading Net re-renders portraits using extracted representations. Harmonization Net fuses pasted faces and the reference image's body for coherent results. Our approach with off-the-shelf Controlnets is better than state-of-the-art AI portrait products in identity preservation and image fidelity. MegaPortrait has a simple but effective design and we compare it with other methods and products to show its superiority.
- Abstract(参考訳): 我々はメガポートレートを提案する。
これはコンピュータビジョンでパーソナライズされた肖像画を作成する革新的なシステムです。
Identity Net、Shading Net、Harmonization Netの3つのモジュールがある。
アイデンティティネットは、ソースイメージを微調整したカスタマイズされたモデルを使用して学習したアイデンティティを生成する。
シェーディングネットは、抽出された表現を用いて肖像画を再レンダリングする。
ハーモニゼーションネットは、コヒーレントな結果を得るために、ペーストした顔と参照画像の本体を融合する。
市販のコントロールネットによる我々のアプローチは、アイデンティティの保存とイメージの忠実性において、最先端のAIポートレート製品よりも優れている。
MegaPortraitはシンプルだが効果的な設計であり、他の方法や製品と比較して、その優位性を示している。
関連論文リスト
- GPAvatar: Generalizable and Precise Head Avatar from Image(s) [71.555405205039]
GPAvatarは、1つの前方パスで1つまたは複数の画像から3Dヘッドアバターを再構築するフレームワークである。
提案手法は,忠実なアイデンティティ再構築,正確な表現制御,多視点一貫性を実現する。
論文 参考訳(メタデータ) (2024-01-18T18:56:34Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - RobustSwap: A Simple yet Robust Face Swapping Model against Attribute
Leakage [33.434239920630525]
Face swappingは、ターゲットの属性を保持しながら、ソースイメージのIDをターゲットイメージに注入することを目的としている。
以前のアプローチでは、ソースイメージの属性がターゲットイメージに干渉するソース属性のリークに悩まされていた。
我々は、潜在的ソース属性の漏洩に耐性のある、シンプルで頑健な顔交換モデルRobustSwapを開発した。
論文 参考訳(メタデータ) (2023-03-28T07:03:31Z) - OTAvatar: One-shot Talking Face Avatar with Controllable Tri-plane
Rendering [81.55960827071661]
制御性、一般化性、効率性は、ニューラル暗黙の場で表される顔アバターを構成する主要な目的である。
汎用制御可能な3面描画ソリューションにより顔アバターを構成するワンショット面アバター(OTAvatar)を提案する。
論文 参考訳(メタデータ) (2023-03-26T09:12:03Z) - MetaPortrait: Identity-Preserving Talking Head Generation with Fast
Personalized Adaptation [57.060828009199646]
本稿では,ID保存型音声ヘッド生成フレームワークを提案する。
密集したランドマークは、正確な幾何認識フローフィールドを達成するために不可欠であると主張する。
我々は、合成中にソースアイデンティティを適応的に融合させ、画像ポートレートのキー特性をよりよく保存する。
論文 参考訳(メタデータ) (2022-12-15T18:59:33Z) - Dynamic Neural Portraits [58.480811535222834]
フルヘッド再現問題に対する新しいアプローチであるDynamic Neural Portraitsを提案する。
本手法は,頭部ポーズ,表情,視線を明示的に制御し,写実的な映像像を生成する。
実験の結果,提案手法は最近のNeRF法よりも270倍高速であることがわかった。
論文 参考訳(メタデータ) (2022-11-25T10:06:14Z) - Semantics-Guided Object Removal for Facial Images: with Broad
Applicability and Robust Style Preservation [29.162655333387452]
顔画像における物体の除去と画像の塗布は、顔画像を妨げる物体を特に標的にし、除去し、適切に再構成された顔画像に置き換えるタスクである。
U-netと変調ジェネレータを利用する2つの異なるアプローチは、それぞれに固有の利点があるが、それぞれの手法の固有の欠点にもかかわらず、このタスクに対して広く支持されている。
本稿では,SGIN(Semantics-Guided Inpainting Network)を提案する。
論文 参考訳(メタデータ) (2022-09-29T00:09:12Z) - Explicitly Controllable 3D-Aware Portrait Generation [42.30481422714532]
ポーズ,アイデンティティ,表現,照明に関する意味的パラメータに基づいて,一貫した肖像画を生成する3次元肖像画生成ネットワークを提案する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
論文 参考訳(メタデータ) (2022-09-12T17:40:08Z) - GMFIM: A Generative Mask-guided Facial Image Manipulation Model for
Privacy Preservation [0.7734726150561088]
入力顔画像に知覚不可能な編集を適用するために,GANをベースとしたマスク誘導顔画像マニピュレーションモデルを提案する。
我々のモデルは、最先端の手法と比較して、自動顔認識システムに対してより良い性能を実現することができる。
論文 参考訳(メタデータ) (2022-01-10T14:09:14Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。