論文の概要: FaceCloak: Learning to Protect Face Templates
- arxiv url: http://arxiv.org/abs/2504.06131v1
- Date: Tue, 08 Apr 2025 15:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:35.867389
- Title: FaceCloak: Learning to Protect Face Templates
- Title(参考訳): FaceCloak: 顔テンプレートを保護するための学習
- Authors: Sudipta Banerjee, Anubhav Jain, Chinmay Hegde, Nasir Memon,
- Abstract要約: FaceCloakは、スマートで再生可能なバイナリクロークを生成することによって、顔テンプレートを保護するニューラルネットワークフレームワークである。
本手法は, 顔テンプレートを1つの顔テンプレートから合成した独自のディスラプターで覆い隠すことによって, インバージョン攻撃を積極的に阻止する。
- 参考スコア(独自算出の注目度): 17.481346681603814
- License:
- Abstract: Generative models can reconstruct face images from encoded representations (templates) bearing remarkable likeness to the original face raising security and privacy concerns. We present FaceCloak, a neural network framework that protects face templates by generating smart, renewable binary cloaks. Our method proactively thwarts inversion attacks by cloaking face templates with unique disruptors synthesized from a single face template on the fly while provably retaining biometric utility and unlinkability. Our cloaked templates can suppress sensitive attributes while generalizing to novel feature extraction schemes and outperforms leading baselines in terms of biometric matching and resiliency to reconstruction attacks. FaceCloak-based matching is extremely fast (inference time cost=0.28ms) and light-weight (0.57MB).
- Abstract(参考訳): 生成モデルは、セキュリティとプライバシの懸念を高める元の顔に顕著な類似性を持つ符号化された表現(テンプレート)から顔イメージを再構築することができる。
スマートで再生可能なバイナリクロークを生成することにより、顔テンプレートを保護するニューラルネットワークフレームワークであるFaceCloakを提案する。
本手法は, 顔テンプレートをハエの単一顔テンプレートから合成した独自のディスラプターで包み込み, 生体特性と非リンク性を良好に維持することにより, インバージョン攻撃を予防的に抑制する。
クローズドテンプレートは,新しい特徴抽出方式を一般化し,バイオメトリックマッチングやリコンストラクション攻撃に対する抵抗性の観点から,ベースラインを上回りながら,感度特性を抑えることができる。
FaceCloakベースのマッチングは非常に高速(推論時間=0.28ms)で軽量(0.57MB)である。
関連論文リスト
- iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - Local Features Meet Stochastic Anonymization: Revolutionizing Privacy-Preserving Face Recognition for Black-Box Models [54.88064975480573]
プライバシー保護顔認証(PPFR)の課題は現在、2つの未解決課題に直面している。
グローバルな特徴の破壊と局所的な特徴の強化により,ブラックボックス環境においても効果的に認識できる。
本手法は,ブラックボックスモデルの平均認識精度94.21%を達成し,プライバシ保護とアンチコンストラクションの両面で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2024-12-11T10:49:15Z) - LADIMO: Face Morph Generation through Biometric Template Inversion with Latent Diffusion [5.602947425285195]
顔改ざん攻撃は、顔認識システムに深刻なセキュリティ脅威をもたらす。
本稿では,2つの顔認識の埋め込みにおいて,表現レベルの顔形態形成手法であるLADIMOを提案する。
顔形態変種は個々の攻撃成功率を持ち、形態的攻撃ポテンシャルを最大化できることを示す。
論文 参考訳(メタデータ) (2024-10-10T14:41:37Z) - SlerpFace: Face Template Protection via Spherical Linear Interpolation [35.74859369424896]
本稿では,事前保護の無効化が可能な拡散モデルを用いて,新たなプライバシ攻撃形態を特定する。
この攻撃は、テンプレートから高品質でアイデンティティを保存する顔画像を合成し、人の外観を明らかにする。
提案手法は,新しい顔テンプレート保護技術であるSlerpFaceとして実装されている。
論文 参考訳(メタデータ) (2024-07-03T12:07:36Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - PuFace: Defending against Facial Cloaking Attacks for Facial Recognition Models [1.455585466338228]
最近提案された顔認識攻撃は、ユーザーが無許可の顔認識モデルで認識されるのを防ぐために、顔画像に目に見えない摂動(クローク)を付加する。
本稿では,ニューラルネットワークの一般化能力を活用してクロークの影響を低減した画像浄化システムであるPuFaceを紹介する。
我々の実証実験は、PuFaceが2つの最先端の顔認識攻撃に対して効果的に防御でき、攻撃の成功率を平均で69.84%から7.61%に下げることを示している。
論文 参考訳(メタデータ) (2024-06-04T12:19:09Z) - Enhancing Privacy in Face Analytics Using Fully Homomorphic Encryption [8.742970921484371]
本稿では,FHE(Fully Homomorphic Encryption)と,PolyProtectと呼ばれるテンプレート保護方式を組み合わせた新しい手法を提案する。
提案手法は,非可逆性と無リンク性を保証し,ソフトバイオメトリック埋め込みの漏洩を効果的に防止する。
論文 参考訳(メタデータ) (2024-04-24T23:56:03Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Privacy-preserving Adversarial Facial Features [31.885215405010687]
本稿では, 顔のプライバシ保護に配慮した顔のプライバシー保護手法を提案する。
我々は,AdvFaceが再建攻撃に対する防御において,最先端のプライバシー保護手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T08:52:08Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。