論文の概要: Semantic Adversarial Attacks on Face Recognition through Significant
Attributes
- arxiv url: http://arxiv.org/abs/2301.12046v1
- Date: Sat, 28 Jan 2023 01:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:33:11.883677
- Title: Semantic Adversarial Attacks on Face Recognition through Significant
Attributes
- Title(参考訳): 意味的属性による顔認識における意味的対立攻撃
- Authors: Yasmeen M. Khedr, Yifeng Xiong, Kun He
- Abstract要約: SAA-StarGANと呼ばれる新たなセマンティック・アタックを提案する。
我々は,コサイン類似度や確率スコアを適用して,最も重要な属性を予測する。
実験により,本手法は多彩で現実的な顔画像を生成することができることが示された。
- 参考スコア(独自算出の注目度): 11.832528135009802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition is known to be vulnerable to adversarial face images.
Existing works craft face adversarial images by indiscriminately changing a
single attribute without being aware of the intrinsic attributes of the images.
To this end, we propose a new Semantic Adversarial Attack called SAA-StarGAN
that tampers with the significant facial attributes for each image. We predict
the most significant attributes by applying the cosine similarity or
probability score. The probability score method is based on training a Face
Verification model for an attribute prediction task to obtain a class
probability score for each attribute. The prediction process will help craft
adversarial face images more easily and efficiently, as well as improve the
adversarial transferability. Then, we change the most significant facial
attributes, with either one or more of the facial attributes for impersonation
and dodging attacks in white-box and black-box settings. Experimental results
show that our method could generate diverse and realistic adversarial face
images meanwhile avoid affecting human perception of the face recognition.
SAA-StarGAN achieves an 80.5% attack success rate against black-box models,
outperforming existing methods by 35.5% under the impersonation attack.
Concerning the black-box setting, SAA-StarGAN achieves high attack success
rates on various models. The experiments confirm that predicting the most
important attributes significantly affects the success of adversarial attacks
in both white-box and black-box settings and could enhance the transferability
of the crafted adversarial examples.
- Abstract(参考訳): 顔認識は、敵の顔画像に対して脆弱であることが知られている。
既存の作業は、画像の本質的な属性を意識せずに、単一の属性を無差別に変更することにより、対向画像を作成する。
そこで本研究では,saa-starganと呼ばれる,画像毎に重要な顔属性を改ざんする新しい意味的敵意攻撃を提案する。
我々はコサイン類似度や確率スコアを適用して最も重要な属性を予測する。
確率スコア法は属性予測タスクの顔検証モデルを訓練し、属性毎にクラス確率スコアを求める。
この予測プロセスは、対向顔画像をより簡単かつ効率的に作成し、対向性を向上させる。
そして、最も重要な顔属性を変更し、その1つ以上の顔属性を、ホワイトボックスとブラックボックスの設定で、偽装およびドッジアタックのために変更する。
実験の結果, 顔の認識に影響を及ぼすことなく, 多様で現実的な顔画像を生成することができた。
SAA-StarGANはブラックボックスモデルに対する80.5%の攻撃成功率を達成し、既存の手法を35.5%上回った。
ブラックボックス設定に関して、SAA-StarGANは様々なモデルで高い攻撃成功率を達成する。
実験により、最も重要な属性の予測は、ホワイトボックスとブラックボックスの両方における敵攻撃の成功に大きく影響し、敵の例の転送性を高めることが確認された。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Rethinking Impersonation and Dodging Attacks on Face Recognition Systems [38.37530847215405]
顔認識(FR)システムは、知覚不能な摂動を通じて良質な顔画像を操作する敵の例によって容易に認識できる。
従来の方法では、FRに対する偽装攻撃を成功させることが多いが、ブラックボックス設定でFRに対するドッジ攻撃を成功させるとは限らない。
そこで本稿では, 対人的能力を維持しつつ, 対人的能力を高めるために, 既存の対人的能力を微調整する, 対人的プルーニング(Adv-Pruning, Adv-Pruning)と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-01-17T01:10:17Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - FaceGuard: A Self-Supervised Defense Against Adversarial Face Images [59.656264895721215]
我々は,多種多様な対向顔を自動的に検出し,局所化し,浄化する,新たな自己監督型対向防御フレームワークFaceGuardを提案する。
トレーニング中、FaceGuardは、困難で多様な敵攻撃を自動的に合成し、分類器が実際の顔と区別することを学ぶことができる。
LFWデータセットの実験結果から、FaceGuardは6つの未知の敵攻撃タイプに対して99.81%の精度で検出できることが示された。
論文 参考訳(メタデータ) (2020-11-28T21:18:46Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。