論文の概要: SUGAR: A Sweeter Spot for Generative Unlearning of Many Identities
- arxiv url: http://arxiv.org/abs/2512.06562v1
- Date: Sat, 06 Dec 2025 20:42:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.40988
- Title: SUGAR: A Sweeter Spot for Generative Unlearning of Many Identities
- Title(参考訳): SuGAR: 多数のアイデンティティの生成的アンラーニングのためのスイータースポット
- Authors: Dung Thuy Nguyen, Quang Nguyen, Preston K. Robinette, Eli Jiang, Taylor T. Johnson, Kevin Leach,
- Abstract要約: 近年の3D認識生成モデルの進歩により、人間のアイデンティティの高忠実度画像合成が可能となった。
SuGARはスケーラブルな生成的アンラーニングのためのフレームワークで、モデル全体をトレーニングすることなく、多くのアイデンティティを除去できる。
- 参考スコア(独自算出の注目度): 7.695475724838533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in 3D-aware generative models have enabled high-fidelity image synthesis of human identities. However, this progress raises urgent questions around user consent and the ability to remove specific individuals from a model's output space. We address this by introducing SUGAR, a framework for scalable generative unlearning that enables the removal of many identities (simultaneously or sequentially) without retraining the entire model. Rather than projecting unwanted identities to unrealistic outputs or relying on static template faces, SUGAR learns a personalized surrogate latent for each identity, diverting reconstructions to visually coherent alternatives while preserving the model's quality and diversity. We further introduce a continual utility preservation objective that guards against degradation as more identities are forgotten. SUGAR achieves state-of-the-art performance in removing up to 200 identities, while delivering up to a 700% improvement in retention utility compared to existing baselines. Our code is publicly available at https://github.com/judydnguyen/SUGAR-Generative-Unlearn.
- Abstract(参考訳): 近年の3D認識生成モデルの進歩により、人間のアイデンティティの高忠実度画像合成が可能となった。
しかし、この進歩は、ユーザの同意と、特定の個人をモデルの出力空間から取り除く能力に関する緊急の疑問を引き起こす。
モデル全体をトレーニングすることなく,多数のアイデンティティ(同時あるいは逐次)を削除可能な,スケーラブルな生成アンラーニングフレームワークであるSUGARを導入することで,この問題に対処する。
不要なIDを非現実的な出力に投影したり、静的なテンプレートフェイスに依存するのではなく、SUGARは個々のアイデンティティに対してパーソナライズされたサロゲートラテントを学び、モデルの品質と多様性を保ちながら、再構築を視覚的に一貫性のある代替品に分割する。
さらに,さらなるアイデンティティが忘れられるにつれて,劣化を防ぐための継続的なユーティリティ保護の目標も導入する。
SUGARは200のアイデンティティを削除し、既存のベースラインと比較して700%の改善を達成している。
私たちのコードはhttps://github.com/judydnguyen/SUGAR-Generative-Unlearn.comで公開されています。
関連論文リスト
- Beyond Inference Intervention: Identity-Decoupled Diffusion for Face Anonymization [55.29071072675132]
顔の匿名化は、非同一性属性を保持しながら、識別情報を隠蔽することを目的としている。
トレーニング中心の匿名化フレームワークである textbfIDsuperscript2Face を提案する。
IDtextsuperscript2Faceは、視覚的品質、アイデンティティの抑制、ユーティリティ保存において、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-10-28T09:28:12Z) - WithAnyone: Towards Controllable and ID Consistent Image Generation [83.55786496542062]
アイデンティティ・一貫性・ジェネレーションは、テキスト・ツー・イメージ研究において重要な焦点となっている。
マルチパーソンシナリオに適した大規模ペアデータセットを開発する。
本稿では,データと多様性のバランスをとるためにペアデータを活用する,対照的なアイデンティティ損失を持つ新たなトレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-10-16T17:59:54Z) - CodeFormer++: Blind Face Restoration Using Deformable Registration and Deep Metric Learning [1.1666234644810893]
CodeFormer++は、アイデンティティを保ちながら、高品質な顔復元のための生成前駆体の有用性を最大化する、新しいフレームワークである。
筆者らは,(1) 生成顔と復元顔とを意味的に整合させる学習型変形可能な顔登録モジュール,(2) 生成顔のテクスチャを動的に抽出し,保存した顔の質を高めるためのテクスチャガイド付き復元ネットワーク,(3) 情報的正負のサンプルとBFRの深部メートル法学習の統合により,識別・保存・生成機能の融合を図る。
論文 参考訳(メタデータ) (2025-10-06T00:53:50Z) - DisCo: Reinforcement with Diversity Constraints for Multi-Human Generation [60.741022906593685]
DisCoは、マルチヒューマン世代におけるアイデンティティの多様性を直接最適化する最初のRLベースのフレームワークである。
グループ相対ポリシー最適化によるDisCo微粒フローマッチングモデル。
DiverseHumans Testsetでは、DisCoは98.6のユニークな顔の精度とほぼ完璧なグローバルアイデンティティスプレッドを実現している。
論文 参考訳(メタデータ) (2025-10-01T19:28:51Z) - ID-Booth: Identity-consistent Face Generation with Diffusion Models [27.46650231581887]
我々はID-Boothと呼ばれる新しい生成拡散に基づくフレームワークを提案する。
このフレームワークは、事前訓練された拡散モデルの合成能力を保ちながら、アイデンティティ一貫性のある画像生成を可能にする。
本手法は、画像の多様性を向上しつつ、競合する手法よりもアイデンティティ間の一貫性とアイデンティティ間の分離性を向上する。
論文 参考訳(メタデータ) (2025-04-10T02:20:18Z) - Boosting Alignment for Post-Unlearning Text-to-Image Generative Models [55.82190434534429]
大規模な生成モデルは、大量のデータによって推進される印象的な画像生成能力を示している。
これはしばしば必然的に有害なコンテンツや不適切なコンテンツを生み出し、著作権の懸念を引き起こす。
学習しない反復ごとに最適なモデル更新を求めるフレームワークを提案し、両方の目的に対して単調な改善を確実にする。
論文 参考訳(メタデータ) (2024-12-09T21:36:10Z) - Generative Unlearning for Any Identity [6.872154067622779]
プライバシー問題に関連する特定の領域では、高度な生成モデルと強力な反転法が潜在的な誤用につながる可能性がある。
生成的アイデンティティアンラーニング(generative identity unlearning)という,特定のアイデンティティのイメージを生成しないモデルを提案する。
本稿では,1つの画像のみを用いて生成元をアンラーニングすることで,特定のアイデンティティの再構築を防止する新しいフレームワーク,GUIDE(Generative Unlearning for Any Identity)を提案する。
論文 参考訳(メタデータ) (2024-05-16T08:00:55Z) - StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - Identity Encoder for Personalized Diffusion [57.1198884486401]
パーソナライズのためのエンコーダに基づくアプローチを提案する。
我々は、被写体の参照画像の集合からアイデンティティ表現を抽出できるアイデンティティエンコーダを学習する。
提案手法は画像生成と再構成の両方において既存の微調整に基づくアプローチより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-14T23:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。