論文の概要: PersonaHOI: Effortlessly Improving Personalized Face with Human-Object Interaction Generation
- arxiv url: http://arxiv.org/abs/2501.05823v1
- Date: Fri, 10 Jan 2025 10:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:27:27.961236
- Title: PersonaHOI: Effortlessly Improving Personalized Face with Human-Object Interaction Generation
- Title(参考訳): ペルソナホイ:人間と物体のインタラクション生成によるパーソナライズされた顔の改善
- Authors: Xinting Hu, Haoran Wang, Jan Eric Lenssen, Bernt Schiele,
- Abstract要約: PersonaHOIは、一般の安定拡散モデルとパーソナライズされた顔拡散(PFD)モデルとを融合させて、アイデンティティ一貫性のある人間-オブジェクト相互作用(HOI)画像を生成する、トレーニングおよびチューニング不要なフレームワークである。
- 参考スコア(独自算出の注目度): 62.85437763951757
- License:
- Abstract: We introduce PersonaHOI, a training- and tuning-free framework that fuses a general StableDiffusion model with a personalized face diffusion (PFD) model to generate identity-consistent human-object interaction (HOI) images. While existing PFD models have advanced significantly, they often overemphasize facial features at the expense of full-body coherence, PersonaHOI introduces an additional StableDiffusion (SD) branch guided by HOI-oriented text inputs. By incorporating cross-attention constraints in the PFD branch and spatial merging at both latent and residual levels, PersonaHOI preserves personalized facial details while ensuring interactive non-facial regions. Experiments, validated by a novel interaction alignment metric, demonstrate the superior realism and scalability of PersonaHOI, establishing a new standard for practical personalized face with HOI generation. Our code will be available at https://github.com/JoyHuYY1412/PersonaHOI
- Abstract(参考訳): 我々はPersonaHOIを紹介した。PersonaHOIは、Personal Facedifffusion(PFD)モデルと一般のStableDiffusionモデルとを融合した、トレーニングとチューニングの不要なフレームワークである。
既存のPFDモデルは大幅に進歩しているが、フルボディのコヒーレンスを犠牲にして顔の特徴を過度に強調することが多い。
パーソナライズされた顔の詳細は, PFD 分岐に相互注意的制約を取り入れ, 潜伏レベルと残留レベルの両方で空間的統合を行うことにより, 対話的非顔面領域を確保しながら保存する。
新しいインタラクションアライメント・メトリックによって検証された実験は、ペルソナホイの優れたリアリズムとスケーラビリティを示し、HOI生成による実用的パーソナライズされた顔のための新しい標準を確立した。
私たちのコードはhttps://github.com/JoyHuY1412/PersonaHOIで公開されます。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - TCDiff: Triple Condition Diffusion Model with 3D Constraints for Stylizing Synthetic Faces [1.7535229154829601]
新しいデータセットの1k、2k、5kクラスを用いた顔認識実験は、実顔ベンチマークで最先端の合成データセットをトレーニングする。
論文 参考訳(メタデータ) (2024-09-05T14:59:41Z) - High-fidelity Person-centric Subject-to-Image Synthesis [13.785484396436367]
Face-diffuserは、上記のトレーニングの不均衡と品質の妥協を取り除くための効果的な協調生成パイプラインである。
サンプリングプロセスは, セマンティックシーン構築, テーマシーン融合, テーマエンハンスメントの3段階に分けられる。
新規かつ高能率なノイズ融合(Saliency-Adaptive Noise Fusion)によって達成された,主題・場面の融合段階である。
論文 参考訳(メタデータ) (2023-11-17T05:03:53Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - SuperFront: From Low-resolution to High-resolution Frontal Face
Synthesis [65.35922024067551]
本稿では,前頭前頭部を保存した高品質なアイデンティティを生成できるGANモデルを提案する。
具体的には,高分解能(HR)面を1対多のLR面から様々なポーズで合成するSuperFront-GANを提案する。
超高解像度のサイドビューモジュールをSF-GANに統合し、人事空間におけるアイデンティティ情報とサイドビューの詳細を保存します。
論文 参考訳(メタデータ) (2020-12-07T23:30:28Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。