論文の概要: Diffusion-Driven Universal Model Inversion Attack for Face Recognition
- arxiv url: http://arxiv.org/abs/2504.18015v1
- Date: Fri, 25 Apr 2025 01:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.610447
- Title: Diffusion-Driven Universal Model Inversion Attack for Face Recognition
- Title(参考訳): 拡散駆動型ユニバーサルモデルインバージョンアタックによる顔認識
- Authors: Hanrui Wang, Shuo Wang, Chun-Shien Lu, Isao Echizen,
- Abstract要約: 顔認識システムは、伝統的にプライバシー保護と見なされる生の画像を埋め込みに変換する。
モデル反転攻撃は、プライベートな顔画像の再構築によって重大なプライバシー上の脅威となる。
顔認識システムのためのトレーニングフリー拡散駆動型ユニバーサルモデルインバージョンアタックであるDiffUMIを提案する。
- 参考スコア(独自算出の注目度): 17.70133779192382
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Facial recognition technology poses significant privacy risks, as it relies on biometric data that is inherently sensitive and immutable if compromised. To mitigate these concerns, face recognition systems convert raw images into embeddings, traditionally considered privacy-preserving. However, model inversion attacks pose a significant privacy threat by reconstructing these private facial images, making them a crucial tool for evaluating the privacy risks of face recognition systems. Existing methods usually require training individual generators for each target model, a computationally expensive process. In this paper, we propose DiffUMI, a training-free diffusion-driven universal model inversion attack for face recognition systems. DiffUMI is the first approach to apply a diffusion model for unconditional image generation in model inversion. Unlike other methods, DiffUMI is universal, eliminating the need for training target-specific generators. It operates within a fixed framework and pretrained diffusion model while seamlessly adapting to diverse target identities and models. DiffUMI breaches privacy-preserving face recognition systems with state-of-the-art success, demonstrating that an unconditional diffusion model, coupled with optimized adversarial search, enables efficient and high-fidelity facial reconstruction. Additionally, we introduce a novel application of out-of-domain detection (OODD), marking the first use of model inversion to distinguish non-face inputs from face inputs based solely on embeddings.
- Abstract(参考訳): 顔認識技術は、侵害された場合、本質的に敏感で不変な生体認証データに依存するため、重大なプライバシーリスクを引き起こす。
これらの懸念を和らげるために、顔認識システムは、伝統的にプライバシー保護と見なされていた生の画像を埋め込みに変換する。
しかし、モデル反転攻撃は、これらのプライベートな顔画像を再構成することで、重要なプライバシー上の脅威を生じさせ、顔認識システムのプライバシーリスクを評価する重要なツールとなる。
既存の手法では、計算コストのかかる各ターゲットモデルに対して、個々のジェネレータを訓練する必要がある。
本稿では,顔認識システムのためのトレーニングフリー拡散駆動型ユニバーサルモデルインバージョンアタックであるDiffUMIを提案する。
DiffUMIは、モデル反転における非条件画像生成に拡散モデルを適用するための最初のアプローチである。
他の方法とは異なり、DiffUMIは普遍的であり、ターゲット固有のジェネレータを訓練する必要がなくなる。
固定されたフレームワークと事前訓練された拡散モデル内で動作し、多様なターゲットIDやモデルにシームレスに適応する。
DiffUMIは、プライバシー保護の顔認識システムを最先端の成功で破り、非条件拡散モデルと最適化された対向探索が組み合わさって、効率的で高忠実な顔再構成を可能にすることを示した。
さらに,埋め込みのみに基づく顔入力から非顔入力を識別するために,モデルインバージョンの最初の使用法として,ドメイン外検出(OODD)を新たに導入する。
関連論文リスト
- Enhancing Facial Privacy Protection via Weakening Diffusion Purification [36.33027625681024]
ソーシャルメディアは個々の肖像画を広く共有し、深刻なプライバシーリスクを生じさせている。
近年の手法では、拡散モデルを用いて、プライバシー保護のための対向顔画像を生成する。
本研究では,非条件埋め込みを学習し,対向的修正のための学習能力を向上させることを提案する。
我々は、元の画像と生成された画像の間の構造的一貫性を維持するために、アイデンティティ保存構造を統合する。
論文 参考訳(メタデータ) (2025-03-13T13:27:53Z) - iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - Local Features Meet Stochastic Anonymization: Revolutionizing Privacy-Preserving Face Recognition for Black-Box Models [54.88064975480573]
プライバシー保護顔認証(PPFR)の課題は現在、2つの未解決課題に直面している。
グローバルな特徴の破壊と局所的な特徴の強化により,ブラックボックス環境においても効果的に認識できる。
本手法は,ブラックボックスモデルの平均認識精度94.21%を達成し,プライバシ保護とアンチコンストラクションの両面で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2024-12-11T10:49:15Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Controllable Inversion of Black-Box Face Recognition Models via
Diffusion [8.620807177029892]
我々は,事前学習した顔認識モデルの潜在空間を,完全なモデルアクセスなしで反転させる作業に取り組む。
本研究では,条件付き拡散モデル損失が自然発生し,逆分布から効果的にサンプル化できることを示す。
本手法は,生成過程を直感的に制御できる最初のブラックボックス顔認識モデル逆変換法である。
論文 参考訳(メタデータ) (2023-03-23T03:02:09Z) - Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models [43.51625789744288]
転写性に基づいた対向パッチを用いた顔認識モデルのロバスト性の評価を行った。
代用モデルと対象モデルの応答のギャップが劇的に減少し,転送性が向上したことを示す。
論文 参考訳(メタデータ) (2021-06-29T02:13:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。