論文の概要: Non-Adaptive Adversarial Face Generation
- arxiv url: http://arxiv.org/abs/2507.12107v1
- Date: Wed, 16 Jul 2025 10:24:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.353501
- Title: Non-Adaptive Adversarial Face Generation
- Title(参考訳): 非適応的対向顔生成
- Authors: Sunpill Kim, Seunghun Paik, Chanwoo Hwang, Minsu Kim, Jae Hong Seo,
- Abstract要約: 顔認識システムに対する敵対的な攻撃は、深刻なセキュリティとプライバシーの脅威を引き起こす。
対向顔合成顔画像を生成する新しい手法を提案する。
我々の方法は、AWSのComparteFaces APIに対して93%以上の高い成功率を達成する。
- 参考スコア(独自算出の注目度): 18.28396766186067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on face recognition systems (FRSs) pose serious security and privacy threats, especially when these systems are used for identity verification. In this paper, we propose a novel method for generating adversarial faces-synthetic facial images that are visually distinct yet recognized as a target identity by the FRS. Unlike iterative optimization-based approaches (e.g., gradient descent or other iterative solvers), our method leverages the structural characteristics of the FRS feature space. We figure out that individuals sharing the same attribute (e.g., gender or race) form an attributed subsphere. By utilizing such subspheres, our method achieves both non-adaptiveness and a remarkably small number of queries. This eliminates the need for relying on transferability and open-source surrogate models, which have been a typical strategy when repeated adaptive queries to commercial FRSs are impossible. Despite requiring only a single non-adaptive query consisting of 100 face images, our method achieves a high success rate of over 93% against AWS's CompareFaces API at its default threshold. Furthermore, unlike many existing attacks that perturb a given image, our method can deliberately produce adversarial faces that impersonate the target identity while exhibiting high-level attributes chosen by the adversary.
- Abstract(参考訳): 顔認識システム(FRS)に対する敵対的攻撃は、特に認証にこれらのシステムが使用される場合、深刻なセキュリティとプライバシーの脅威を引き起こす。
本稿では, 視覚的に識別されるが, FRSによってターゲットのアイデンティティとして認識される, 対向顔合成顔画像を生成する新しい手法を提案する。
反復最適化に基づくアプローチ(勾配勾配降下法など)とは異なり,本手法はFRS特徴空間の構造的特徴を利用する。
同一属性(例えば、性別や人種)を共有する個人は、属性付きサブスフィアを形成する。
このようなサブスフィアを利用することで,非適応性と極めて少数のクエリを実現する。
これにより、商用FRSへの繰り返し適応クエリが不可能な場合、典型的な戦略であったトランスファービリティやオープンソースサロゲートモデルに頼る必要がなくなる。
100の顔画像からなる単一の非適応クエリしか必要とせず、私たちの方法は、AWSのComparteFaces APIに対して、デフォルトのしきい値で93%以上の高い成功率を達成する。
さらに,画像に乱入する多くの既存攻撃とは異なり,本手法では,相手が選択した高レベルな属性を呈示しながら,対象のアイデンティティを偽装する敵顔を意図的に生成することができる。
関連論文リスト
- Diffusion-based Adversarial Identity Manipulation for Facial Privacy Protection [14.797807196805607]
顔認識は、ソーシャルネットワーク上での不正な監視とユーザー追跡によって、深刻なプライバシー上の懸念を引き起こしている。
既存のプライバシーを強化する方法は、顔のプライバシーを保護する自然な顔画像を生成するのに失敗する。
そこで我々はDiffAIMを提案し、悪意のあるFRシステムに対して自然かつ高度に伝達可能な対向顔を生成する。
論文 参考訳(メタデータ) (2025-04-30T13:49:59Z) - DiffUMI: Training-Free Universal Model Inversion via Unconditional Diffusion for Face Recognition [17.70133779192382]
DiffUMIは拡散型ユニバーサルモデル逆転攻撃であり、追加の訓練は不要である。
最先端の攻撃を15.5%上回り、標準およびプライバシー保護の顔認識システムでの成功率を9.82%上回っている。
論文 参考訳(メタデータ) (2025-04-25T01:53:27Z) - FaceSwapGuard: Safeguarding Facial Privacy from DeepFake Threats through Identity Obfuscation [42.52406793874506]
FaceSwapGuard(FSG)は、ディープフェイクのフェイススワッピング脅威に対するブラックボックス防御機構である。
FSGはユーザーの顔画像に知覚不能な摂動を導入し、アイデンティティエンコーダによって抽出された特徴を妨害する。
複数のフェイススワッピング技術に対するFSGの有効性を示す大規模な実験を行った。
論文 参考訳(メタデータ) (2025-02-15T13:45:19Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Hierarchical Generative Network for Face Morphing Attacks [7.34597796509503]
顔認識システム(FRS)は、複数のアイデンティティを含む形態画像を作成することで、顔認識システム(FRS)を回避している。
本研究では, 画像の品質向上と寄与するアイデンティティの保存を図るため, 新たなモーフィング攻撃法を提案する。
論文 参考訳(メタデータ) (2024-03-17T06:09:27Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - DVG-Face: Dual Variational Generation for Heterogeneous Face Recognition [85.94331736287765]
我々は、HFRを二重生成問題として定式化し、新しいDual Variational Generation(DVG-Face)フレームワークを用いてそれに取り組む。
大規模可視データの豊富なアイデンティティ情報を結合分布に統合する。
同一の同一性を持つ多種多様な多種多様な画像は、ノイズから生成することができる。
論文 参考訳(メタデータ) (2020-09-20T09:48:24Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。