論文の概要: FLUID: Training-Free Face De-identification via Latent Identity Substitution
- arxiv url: http://arxiv.org/abs/2511.17005v1
- Date: Fri, 21 Nov 2025 07:18:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.918438
- Title: FLUID: Training-Free Face De-identification via Latent Identity Substitution
- Title(参考訳): FLUID:潜入身元置換による無訓練顔識別
- Authors: Jinhyeong Park, Shaheryar Muhammad, Seangmin Lee, Jong Taek Lee, Soon Ki Jung,
- Abstract要約: FLUIDは、事前訓練された拡散モデルの潜在空間におけるアイデンティティを置換する、トレーニング不要のフレームワークである。
FLUIDはアイデンティティ抑制と属性保存のトレードオフが優れていることを示す。
- 参考スコア(独自算出の注目度): 4.41695602948061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present FLUID (Face de-identification in the Latent space via Utility-preserving Identity Displacement), a training-free framework that directly substitutes identity in the latent space of pretrained diffusion models. Inspired by substitution mechanisms in chemistry, we reinterpret identity editing as semantic displacement in the latent h-space of a pretrained unconditional diffusion model. Our framework discovers identity-editing directions through optimization guided by novel reagent losses, which supervise for attribute preservation and identity suppression. We further propose both linear and geodesic (tangent-based) editing schemes to effectively navigate the latent manifold. Experimental results on CelebA-HQ and FFHQ demonstrate that FLUID achieves a superior trade-off between identity suppression and attribute preservation, outperforming state-of-the-art de-identification methods in both qualitative and quantitative metrics.
- Abstract(参考訳): FLUID (Face Dedentification in the Latent space via Utility-Preserving Identity Displacement) は、事前訓練された拡散モデルの潜在空間におけるアイデンティティを直接置換する訓練自由フレームワークである。
化学における置換機構に着想を得て,前訓練された非条件拡散モデルの潜在h空間における意味的変位としてアイデンティティ編集を再解釈する。
本フレームワークは, 属性保存と識別抑制を監督する新規試薬の損失によって導かれる最適化により, アイデンティティ編集の方向を検出する。
さらに、潜在多様体を効果的にナビゲートするために、線形および測地的(タンジェントベース)な編集スキームを提案する。
CelebA-HQ と FFHQ の実験結果から,FLUID は識別抑制と属性保存の優れたトレードオフを実現し,質的,定量的両指標において最先端の非識別手法に優れることが示された。
関連論文リスト
- Beyond Inference Intervention: Identity-Decoupled Diffusion for Face Anonymization [55.29071072675132]
顔の匿名化は、非同一性属性を保持しながら、識別情報を隠蔽することを目的としている。
トレーニング中心の匿名化フレームワークである textbfIDsuperscript2Face を提案する。
IDtextsuperscript2Faceは、視覚的品質、アイデンティティの抑制、ユーティリティ保存において、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-10-28T09:28:12Z) - Authentic Discrete Diffusion Model [72.31371542619121]
認証離散拡散(ADD)フレームワークは、従来の擬似離散的アプローチを再定義する。
ADDはフロートエンコードされたワンホットクラスデータを直接使用して拡散入力を再構成する。
実験により、ADDはベースラインと比較して分類タスクにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-10-01T15:51:10Z) - NegFaceDiff: The Power of Negative Context in Identity-Conditioned Diffusion for Synthetic Face Generation [8.045296450065019]
NegFaceDiffは、負条件を同一条件拡散過程に組み込む新しいサンプリング手法である。
我々は、NegFaceDiffが、アイデンティティ条件付き拡散モデルによって生成されるデータのアイデンティティ一貫性と分離性を大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-08-13T09:45:09Z) - Robust ID-Specific Face Restoration via Alignment Learning [14.7430941613282]
本稿では,拡散モデルに基づく新しい顔復元フレームワークであるRobust ID-Specific Face Restoration (RIDFR)を提案する。
RIDFRにはアライメント・ラーニング(Alignment Learning)が組み込まれており、複数の参照からの復元結果を同一のアイデンティティと整合させて、ID非関連顔のセマンティクスの干渉を抑制する。
実験により、我々のフレームワークは最先端の手法よりも優れており、高品質なID固有の結果を高いアイデンティティの忠実度で再現し、強靭性を示す。
論文 参考訳(メタデータ) (2025-07-15T03:16:12Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。