論文の概要: Training for Identity, Inference for Controllability: A Unified Approach to Tuning-Free Face Personalization
- arxiv url: http://arxiv.org/abs/2512.03964v1
- Date: Wed, 03 Dec 2025 16:57:50 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:00:18.513477
- Title: Training for Identity, Inference for Controllability: A Unified Approach to Tuning-Free Face Personalization
- Title(参考訳): アイデンティティのトレーニング,制御可能性の推論: 調整自由な顔のパーソナライゼーションへの統一的アプローチ
- Authors: Lianyu Pang, Ji Zhou, Qiping Wang, Baoquan Zhao, Zhenguo Yang, Qing Li, Xudong Mao,
- Abstract要約: 両パラダイムを相乗的に統合する統合チューニングフリーフレームワークであるUniIDを紹介する。
私たちの重要な洞察は、これらのアプローチを統合する際には、アイデンティティ関連情報のみを相互に強化する必要があるということです。
この原則により、UniIDはフレキシブルテキスト制御性を備えた高忠実な顔のパーソナライゼーションを実現することができる。
- 参考スコア(独自算出の注目度): 16.851646868288135
- License:
- Abstract: Tuning-free face personalization methods have developed along two distinct paradigms: text embedding approaches that map facial features into the text embedding space, and adapter-based methods that inject features through auxiliary cross-attention layers. While both paradigms have shown promise, existing methods struggle to simultaneously achieve high identity fidelity and flexible text controllability. We introduce UniID, a unified tuning-free framework that synergistically integrates both paradigms. Our key insight is that when merging these approaches, they should mutually reinforce only identity-relevant information while preserving the original diffusion prior for non-identity attributes. We realize this through a principled training-inference strategy: during training, we employ an identity-focused learning scheme that guides both branches to capture identity features exclusively; at inference, we introduce a normalized rescaling mechanism that recovers the text controllability of the base diffusion model while enabling complementary identity signals to enhance each other. This principled design enables UniID to achieve high-fidelity face personalization with flexible text controllability. Extensive experiments against six state-of-the-art methods demonstrate that UniID achieves superior performance in both identity preservation and text controllability. Code will be available at https://github.com/lyuPang/UniID
- Abstract(参考訳): 教師なしの顔のパーソナライズ手法は、顔の特徴をテキスト埋め込み空間にマッピングするテキスト埋め込みアプローチと、補助的なクロスアテンション層を通じて特徴を注入するアダプタベースの手法の2つの異なるパラダイムに沿って開発された。
どちらのパラダイムも将来性を示しているが、既存の手法は高いアイデンティティの忠実さと柔軟なテキスト制御性を同時に達成するのに苦労している。
両パラダイムを相乗的に統合する統合チューニングフリーフレームワークであるUniIDを紹介する。
我々の重要な洞察は、これらのアプローチをマージする際には、非アイデンティティ属性に先立って元の拡散を保ちながら、アイデンティティ関連情報のみを相互に強化すべきであるということです。
トレーニング中は、両方の枝をガイドしてアイデンティティの特徴を排他的に捉えるアイデンティティ中心の学習スキームを採用し、推論では、相補的なアイデンティティ信号が互いに強化されながら、ベース拡散モデルのテキスト制御性を回復する正規化再スケーリング機構を導入する。
この原則により、UniIDはフレキシブルテキスト制御性を備えた高忠実な顔のパーソナライゼーションを実現することができる。
6つの最先端手法に対する大規模な実験により、UniIDはアイデンティティ保存とテキスト制御性の両方において優れた性能を発揮することが示された。
コードはhttps://github.com/lyuPang/UniIDで入手できる。
関連論文リスト
- BeyondFacial: Identity-Preserving Personalized Generation Beyond Facial Close-ups [22.017690133402912]
アイデンティティ保存型パーソナライズドジェネレーション(I)は、高度な映画制作と芸術的創造力を持っているが、既存のアプローチは顔領域を過度に強調している。
これらの手法は、複雑なテキストプロンプトの下での視覚的ナラティビティの弱さと意味的一貫性の弱さに悩まされる。
本稿では,顔のクローズアップの制約を断ち切るI手法を提案する。
論文 参考訳(メタデータ) (2025-11-15T01:56:14Z) - Beyond Inference Intervention: Identity-Decoupled Diffusion for Face Anonymization [55.29071072675132]
顔の匿名化は、非同一性属性を保持しながら、識別情報を隠蔽することを目的としている。
トレーニング中心の匿名化フレームワークである textbfIDsuperscript2Face を提案する。
IDtextsuperscript2Faceは、視覚的品質、アイデンティティの抑制、ユーティリティ保存において、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-10-28T09:28:12Z) - WithAnyone: Towards Controllable and ID Consistent Image Generation [83.55786496542062]
アイデンティティ・一貫性・ジェネレーションは、テキスト・ツー・イメージ研究において重要な焦点となっている。
マルチパーソンシナリオに適した大規模ペアデータセットを開発する。
本稿では,データと多様性のバランスをとるためにペアデータを活用する,対照的なアイデンティティ損失を持つ新たなトレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-10-16T17:59:54Z) - ID-EA: Identity-driven Text Enhancement and Adaptation with Textual Inversion for Personalized Text-to-Image Generation [33.84646269805187]
ID-EAは、テキストの埋め込みを視覚的アイデンティティの埋め込みに合わせてガイドする新しいフレームワークである。
ID-EAはアイデンティティ保存の指標において最先端の手法を大幅に上回っている。
パーソナライズされた肖像画は、既存のアプローチの15倍の速さで生成される。
論文 参考訳(メタデータ) (2025-07-16T07:42:02Z) - ChatReID: Open-ended Interactive Person Retrieval via Hierarchical Progressive Tuning for Vision Language Models [49.09606704563898]
人物の再識別はコンピュータビジョンにおいて重要な課題であり、重複しないカメラビューを通して個人を認識することを目的としている。
本稿では,テキストを優先した検索パラダイムに焦点を移し,フレキシブルかつインタラクティブな再識別を可能にする新しいフレームワークChatReIDを提案する。
本稿では,人物属性の理解からきめ細かい画像検索,マルチモーダルタスク推論に至るまで,3段階のチューニングを通じてRe-ID能力を実現する階層的プログレッシブチューニング戦略を提案する。
論文 参考訳(メタデータ) (2025-02-27T10:34:14Z) - Foundation Cures Personalization: Improving Personalized Models' Prompt Consistency via Hidden Foundation Knowledge [49.36669870661573]
パーソナライズモデルの迅速な一貫性を改善するフレームワークであるFreeCureを提案する。
本稿では, 個人化プロセスに適切な属性情報をもたらすための, インバージョンベースのプロセスと合わせて, ファンデーションを意識した新たな自己意識モジュールを提案する。
論文 参考訳(メタデータ) (2024-11-22T15:21:38Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - Infinite-ID: Identity-preserved Personalization via ID-semantics Decoupling Paradigm [31.06269858216316]
アイデンティティ保存型パーソナライゼーションのためのID-セマンティックデカップリングパラダイムであるInfinite-IDを提案する。
我々は、十分なID情報を取得するために、追加のイメージクロスアテンションモジュールを組み込んだアイデンティティ強化トレーニングを導入する。
また、2つのストリームをシームレスにマージするために、混合アテンションモジュールとAdaIN平均演算を組み合わせた機能相互作用機構を導入する。
論文 参考訳(メタデータ) (2024-03-18T13:39:53Z) - StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。