論文の概要: Geometrically Adaptive Dictionary Attack on Face Recognition
- arxiv url: http://arxiv.org/abs/2111.04371v1
- Date: Mon, 8 Nov 2021 10:26:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 15:30:50.180539
- Title: Geometrically Adaptive Dictionary Attack on Face Recognition
- Title(参考訳): 顔認識における幾何学的適応辞書攻撃
- Authors: Junyoung Byun, Hyojun Go, Changick Kim
- Abstract要約: 顔認証に対するクエリ効率の良いブラックボックス攻撃のための戦略を提案する。
中心となるアイデアは、UVテクスチャマップに逆方向の摂動を作り、それを画像の顔に投影することです。
LFWデータセットとCPLFWデータセットの実験において、圧倒的な性能改善を示す。
- 参考スコア(独自算出の注目度): 23.712389625037442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CNN-based face recognition models have brought remarkable performance
improvement, but they are vulnerable to adversarial perturbations. Recent
studies have shown that adversaries can fool the models even if they can only
access the models' hard-label output. However, since many queries are needed to
find imperceptible adversarial noise, reducing the number of queries is crucial
for these attacks. In this paper, we point out two limitations of existing
decision-based black-box attacks. We observe that they waste queries for
background noise optimization, and they do not take advantage of adversarial
perturbations generated for other images. We exploit 3D face alignment to
overcome these limitations and propose a general strategy for query-efficient
black-box attacks on face recognition named Geometrically Adaptive Dictionary
Attack (GADA). Our core idea is to create an adversarial perturbation in the UV
texture map and project it onto the face in the image. It greatly improves
query efficiency by limiting the perturbation search space to the facial area
and effectively recycling previous perturbations. We apply the GADA strategy to
two existing attack methods and show overwhelming performance improvement in
the experiments on the LFW and CPLFW datasets. Furthermore, we also present a
novel attack strategy that can circumvent query similarity-based stateful
detection that identifies the process of query-based black-box attacks.
- Abstract(参考訳): CNNベースの顔認識モデルは優れた性能向上をもたらしたが、敵の摂動に弱い。
最近の研究では、たとえモデルのハードラベル出力にしかアクセスできないとしても、敵はモデルを騙すことができることが示されている。
しかし、不可避な逆ノイズを見つけるために多くのクエリが必要であるため、これらの攻撃にはクエリの数を減らすことが不可欠である。
本稿では,既存の決定に基づくブラックボックス攻撃の2つの限界を指摘した。
背景雑音の最適化のためにクエリを無駄にし、他の画像に対して発生する逆の摂動を利用できない。
我々はこれらの制限を克服するために3次元顔アライメントを活用し、Geometrically Adaptive Dictionary Attack (GADA) と呼ばれる顔認識に対するクエリ効率の良いブラックボックス攻撃の一般的な戦略を提案する。
私たちの核となるアイデアは、uvテクスチャマップで逆の摂動を生成し、それを画像の顔に投影することです。
摂動探索空間を顔領域に制限し、以前の摂動を効果的にリサイクルすることにより、クエリ効率を大幅に改善する。
GADA戦略を既存の2つの攻撃手法に適用し、LFWおよびCPLFWデータセットの実験において圧倒的な性能改善を示す。
さらに,クエリに基づくブラックボックス攻撃のプロセスを特定する,クエリ類似性に基づくステートフル検出を回避する新たな攻撃戦略を提案する。
関連論文リスト
- AICAttack: Adversarial Image Captioning Attack with Attention-Based
Optimization [13.99541041673674]
我々は,AICAttackと呼ばれる新たな敵攻撃戦略を提示する。
ブラックボックス攻撃シナリオ内で動作するため、我々のアルゴリズムはターゲットモデルのアーキテクチャ、パラメータ、勾配情報へのアクセスを必要としない。
複数の犠牲者モデルを用いたベンチマークデータセットの広範な実験により,AICAttackの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T08:27:23Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。