論文の概要: Generating Synthetic Data via Augmentations for Improved Facial Resemblance in DreamBooth and InstantID
- arxiv url: http://arxiv.org/abs/2505.03557v2
- Date: Thu, 17 Jul 2025 14:11:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 15:53:04.603795
- Title: Generating Synthetic Data via Augmentations for Improved Facial Resemblance in DreamBooth and InstantID
- Title(参考訳): DreamBooth と InstantID における表情の再現性向上のための強化による合成データ生成
- Authors: Koray Ulusan, Benjamin Kiefer,
- Abstract要約: 本稿では,DreamBoothとInstantIDの2つのパーソナライズ手法に対する拡張戦略の効果を評価する。
InstantIDの合成画像を用いて、古典的な増量(熟成、収穫、色調整)と生成増量を比較し、トレーニングデータを豊かにする。
結果は、古典的な拡張がアイデンティティ保持を損なうアーティファクトを引き起こすことを示し、InstantIDは実際のイメージとのバランスを保ち、オーバーフィッティングを避けるために忠実性を改善する。
- 参考スコア(独自算出の注目度): 2.14769181770878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalizing Stable Diffusion for professional portrait generation from amateur photos faces challenges in maintaining facial resemblance. This paper evaluates the impact of augmentation strategies on two personalization methods: DreamBooth and InstantID. We compare classical augmentations (flipping, cropping, color adjustments) with generative augmentation using InstantID's synthetic images to enrich training data. Using SDXL and a new FaceDistance metric based on FaceNet, we quantitatively assess facial similarity. Results show classical augmentations can cause artifacts harming identity retention, while InstantID improves fidelity when balanced with real images to avoid overfitting. A user study with 97 participants confirms high photorealism and preferences for InstantID's polished look versus DreamBooth's identity accuracy. Our findings inform effective augmentation strategies for personalized text-to-image generation.
- Abstract(参考訳): アマチュア写真からプロの肖像画を生成するための安定拡散をパーソナライズすることは、顔の類似性を維持する上で難しい課題に直面している。
本稿では,DreamBoothとInstantIDの2つのパーソナライズ手法に対する拡張戦略の効果を評価する。
InstantIDの合成画像を用いて、古典的な増量(熟成、収穫、色調整)と生成増量を比較し、トレーニングデータを豊かにする。
SDXLとFaceNetに基づく新しいFaceDistanceメトリックを用いて,顔の類似性を定量的に評価する。
結果は、古典的な拡張がアイデンティティ保持を損なうアーティファクトを引き起こすことを示し、InstantIDは実際のイメージとのバランスを保ち、オーバーフィッティングを避けるために忠実性を改善する。
97人の被験者によるユーザスタディでは、InstantIDの洗練されたルックとDreamBoothのアイデンティティの正確さに対して、高いフォトリアリズムと好みが確認されている。
本研究は,個人化されたテキスト・ツー・イメージ生成のための効果的な拡張戦略を示唆するものである。
関連論文リスト
- DynamicID: Zero-Shot Multi-ID Image Personalization with Flexible Facial Editability [12.692129257068085]
シングルIDとマルチIDパーソナライズされた生成を本質的に促進する,チューニング不要なフレームワークであるDynamicIDを提案する。
主なイノベーションは,(1)ID特徴注入時のベースモデルの破壊を最小限に抑えるためのクエリレベルのアクティベーションゲーティング(SAA)と,トレーニング中に複数IDサンプルを必要とせずにマルチIDパーソナライゼーションを実現するためのクエリレベルのアクティベートゲーティングゲーティング(SAA),2)顔の動作とアイデンティティ機能を効果的にアンタングルするために特徴空間操作を適用したID-Motion Reconfigurator(IMR),3)データ依存を減らすタスク分離トレーニングパラダイムであるVariFace-10k(VariFace-10k)である。
論文 参考訳(メタデータ) (2025-03-09T08:16:19Z) - UIFace: Unleashing Inherent Model Capabilities to Enhance Intra-Class Diversity in Synthetic Face Recognition [42.86969216015855]
顔認識(FR)はコンピュータビジョンにおいて最も重要な応用の1つである。
UIFaceとして短縮された合成顔認識のためのクラス内多様性を高めるフレームワークを提案する。
実験結果から,本手法は従来の手法に比べてトレーニングデータが少なく,合成データセットの約半分の規模で大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2025-02-27T06:22:18Z) - FaceMe: Robust Blind Face Restoration with Personal Identification [27.295878867436688]
拡散モデルに基づく顔復元手法FaceMeを提案する。
1枚または数枚の参照画像が与えられた場合、アイデンティティ関連の特徴を抽出するためにアイデンティティエンコーダを使用し、高品質な顔画像の復元において拡散モデルを導出するためのプロンプトとして機能する。
実験結果から,FaceMeは顔の良質な画像の復元が可能であり,顔認証の整合性を保ち,優れた性能とロバスト性を実現していることがわかった。
論文 参考訳(メタデータ) (2025-01-09T11:52:54Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - InstantID: Zero-shot Identity-Preserving Generation in Seconds [21.04236321562671]
我々はID埋め込みのための強力な拡散モデルに基づくソリューションであるInstantIDを紹介する。
我々のプラグイン・アンド・プレイ・モジュールは、1つの顔画像だけで様々なスタイルで画像のパーソナライズ処理を行う。
私たちの仕事はSD1.5やSDXLのような、トレーニング済みのテキストと画像の拡散モデルとシームレスに統合されます。
論文 参考訳(メタデータ) (2024-01-15T07:50:18Z) - FaceStudio: Put Your Face Everywhere in Seconds [23.381791316305332]
アイデンティティを保存する画像合成は、パーソナライズされたスタイリスティックなタッチを加えながら、被験者のアイデンティティを維持することを目指している。
Textual InversionやDreamBoothといった従来の手法は、カスタムイメージ作成に力を入れている。
本研究は,人間の画像に焦点をあてたアイデンティティ保存合成への新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-05T11:02:45Z) - Effective Adapter for Face Recognition in the Wild [72.75516495170199]
私たちは、画像が低品質で現実世界の歪みに悩まされる、野生の顔認識の課題に取り組みます。
従来のアプローチでは、劣化した画像や、顔の復元技術を使って強化された画像を直接訓練するが、効果がないことが証明された。
高品質な顔データセットで訓練された既存の顔認識モデルを強化するための効果的なアダプタを提案する。
論文 参考訳(メタデータ) (2023-12-04T08:55:46Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Disguise without Disruption: Utility-Preserving Face De-Identification [40.484745636190034]
本研究では,修正データの利用性を確保しつつ,顔画像をシームレスに識別する新しいアルゴリズムであるDisguiseを紹介する。
本手法は, 難読化と非可逆性を最大化するために, 変分機構を用いて生成した合成物を用いて, 描写されたアイデンティティを抽出し置換することを含む。
提案手法を複数のデータセットを用いて広範に評価し,様々な下流タスクにおける従来の手法と比較して,高い非識別率と一貫性を示す。
論文 参考訳(メタデータ) (2023-03-23T13:50:46Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - GMFIM: A Generative Mask-guided Facial Image Manipulation Model for
Privacy Preservation [0.7734726150561088]
入力顔画像に知覚不可能な編集を適用するために,GANをベースとしたマスク誘導顔画像マニピュレーションモデルを提案する。
我々のモデルは、最先端の手法と比較して、自動顔認識システムに対してより良い性能を実現することができる。
論文 参考訳(メタデータ) (2022-01-10T14:09:14Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。