論文の概要: DiffUMI: Training-Free Universal Model Inversion via Unconditional Diffusion for Face Recognition
- arxiv url: http://arxiv.org/abs/2504.18015v2
- Date: Thu, 12 Jun 2025 03:15:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.249628
- Title: DiffUMI: Training-Free Universal Model Inversion via Unconditional Diffusion for Face Recognition
- Title(参考訳): DiffUMI:非条件拡散による学習自由なユニバーサルモデルインバージョンによる顔認識
- Authors: Hanrui Wang, Shuo Wang, Chun-Shien Lu, Isao Echizen,
- Abstract要約: DiffUMIは拡散型ユニバーサルモデル逆転攻撃であり、追加の訓練は不要である。
最先端の攻撃を15.5%上回り、標準およびプライバシー保護の顔認識システムでの成功率を9.82%上回っている。
- 参考スコア(独自算出の注目度): 17.70133779192382
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Face recognition technology presents serious privacy risks due to its reliance on sensitive and immutable biometric data. To address these concerns, such systems typically convert raw facial images into embeddings, which are traditionally viewed as privacy-preserving. However, model inversion attacks challenge this assumption by reconstructing private facial images from embeddings, highlighting a critical vulnerability in face recognition systems. Most existing inversion methods require training a separate generator for each target model, making them computationally intensive. In this work, we introduce DiffUMI, a diffusion-based universal model inversion attack that requires no additional training. DiffUMI is the first approach to successfully leverage unconditional face generation without relying on model-specific generators. It surpasses state-of-the-art attacks by 15.5% and 9.82% in success rate on standard and privacy-preserving face recognition systems, respectively. Furthermore, we propose a novel use of out-of-domain detection (OODD), demonstrating for the first time that model inversion can differentiate between facial and non-facial embeddings using only the embedding space.
- Abstract(参考訳): 顔認識技術は、敏感で不変な生体データに依存するため、深刻なプライバシーリスクを生じさせる。
これらの懸念に対処するため、こうしたシステムは一般的に、生の顔画像を、伝統的にプライバシー保護と見なされる埋め込みに変換する。
しかし、モデル反転攻撃はこの仮定に挑戦し、顔認識システムにおける致命的な脆弱性を浮き彫りにして、プライベートな顔画像を埋め込みから再構築する。
既存のインバージョン手法の多くは、ターゲットモデルごとに個別のジェネレータを訓練する必要があるため、計算集約的である。
本稿では,拡散型ユニバーサルモデルインバージョンアタックであるDiffUMIを紹介する。
DiffUMIは、モデル固有のジェネレータに頼ることなく、無条件の顔生成をうまく活用する最初のアプローチである。
最先端の攻撃を15.5%上回り、標準およびプライバシー保護の顔認識システムでの成功率を9.82%上回っている。
さらに, モデルインバージョンが, 埋め込み空間のみを用いて顔と非顔の埋め込みを識別できることを初めて示す, 領域外検出(OODD)の新たな利用法を提案する。
関連論文リスト
- Enhancing Facial Privacy Protection via Weakening Diffusion Purification [36.33027625681024]
ソーシャルメディアは個々の肖像画を広く共有し、深刻なプライバシーリスクを生じさせている。
近年の手法では、拡散モデルを用いて、プライバシー保護のための対向顔画像を生成する。
本研究では,非条件埋め込みを学習し,対向的修正のための学習能力を向上させることを提案する。
我々は、元の画像と生成された画像の間の構造的一貫性を維持するために、アイデンティティ保存構造を統合する。
論文 参考訳(メタデータ) (2025-03-13T13:27:53Z) - iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - Local Features Meet Stochastic Anonymization: Revolutionizing Privacy-Preserving Face Recognition for Black-Box Models [54.88064975480573]
プライバシー保護顔認証(PPFR)の課題は現在、2つの未解決課題に直面している。
グローバルな特徴の破壊と局所的な特徴の強化により,ブラックボックス環境においても効果的に認識できる。
本手法は,ブラックボックスモデルの平均認識精度94.21%を達成し,プライバシ保護とアンチコンストラクションの両面で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2024-12-11T10:49:15Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Controllable Inversion of Black-Box Face Recognition Models via
Diffusion [8.620807177029892]
我々は,事前学習した顔認識モデルの潜在空間を,完全なモデルアクセスなしで反転させる作業に取り組む。
本研究では,条件付き拡散モデル損失が自然発生し,逆分布から効果的にサンプル化できることを示す。
本手法は,生成過程を直感的に制御できる最初のブラックボックス顔認識モデル逆変換法である。
論文 参考訳(メタデータ) (2023-03-23T03:02:09Z) - Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models [43.51625789744288]
転写性に基づいた対向パッチを用いた顔認識モデルのロバスト性の評価を行った。
代用モデルと対象モデルの応答のギャップが劇的に減少し,転送性が向上したことを示す。
論文 参考訳(メタデータ) (2021-06-29T02:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。