論文の概要: Real-World Transferable Adversarial Attack on Face-Recognition Systems
- arxiv url: http://arxiv.org/abs/2509.23198v1
- Date: Sat, 27 Sep 2025 09:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.100998
- Title: Real-World Transferable Adversarial Attack on Face-Recognition Systems
- Title(参考訳): 顔認識システムにおける実世界移動可能な敵攻撃
- Authors: Andrey Kaznacheev, Matvey Mikhalchuk, Andrey Kuznetsov, Aleksandr Petiushko, Anton Razzhigaev,
- Abstract要約: 我々は、厳密なブラックボックス設定の下で、普遍的で物理的に転送可能な対向パッチを生成する新しい方法であるGaP(Gaussian Patch)を紹介する。
私たちの研究は実用的で深刻な脆弱性を強調しており、堅牢で移動可能な攻撃はターゲットシステムに関する限られた知識で実現可能であることを証明しています。
- 参考スコア(独自算出の注目度): 45.6754000057234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks on face recognition (FR) systems pose a significant security threat, yet most are confined to the digital domain or require white-box access. We introduce GaP (Gaussian Patch), a novel method to generate a universal, physically transferable adversarial patch under a strict black-box setting. Our approach uses a query-efficient, zero-order greedy algorithm to iteratively construct a symmetric, grayscale pattern for the forehead. The patch is optimized by successively adding Gaussian blobs, guided only by the cosine similarity scores from a surrogate FR model to maximally degrade identity recognition. We demonstrate that with approximately 10,000 queries to a black-box ArcFace model, the resulting GaP achieves a high attack success rate in both digital and real-world physical tests. Critically, the attack shows strong transferability, successfully deceiving an entirely unseen FaceNet model. Our work highlights a practical and severe vulnerability, proving that robust, transferable attacks can be crafted with limited knowledge of the target system.
- Abstract(参考訳): 顔認識(FR)システムに対する敵対的攻撃は重大なセキュリティ上の脅威となるが、その多くはデジタルドメインに限られるか、ホワイトボックスアクセスを必要とする。
我々は、厳密なブラックボックス設定の下で、普遍的で物理的に転送可能な対向パッチを生成する新しい方法であるGaP(Gaussian Patch)を紹介する。
提案手法では, クエリ効率, ゼロオーダーグリードアルゴリズムを用いて, 前頭骨に対する対称なグレースケールパターンを反復的に構築する。
パッチは、サロゲートFRモデルからのコサイン類似度スコアのみで誘導されるガウスブロブを順次追加することにより最適化され、最大値認識が劣化する。
ブラックボックスのArcFaceモデルに対する約10,000のクエリで、その結果、GaPはデジタルおよび実世界の物理テストの両方で高い攻撃成功率を達成することを実証した。
致命的なことに、この攻撃は強力な転送可能性を示し、全く見えないFaceNetモデルを無効にすることに成功した。
私たちの研究は実用的で深刻な脆弱性を強調しており、堅牢で移動可能な攻撃はターゲットシステムに関する限られた知識で実現可能であることを証明しています。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - ReFace: Real-time Adversarial Attacks on Face Recognition Systems [17.761026041449977]
本稿では,ATN(Adversarial Transformation Networks)に基づく顔認識モデルに対するリアルタイムかつ高変換可能な攻撃であるReFaceを提案する。
ATNsモデルによるフィードフォワードニューラルネットワークの逆例生成
純U-Net ATNのホワイトボックス攻撃成功率は、大規模顔認識データセットのPGDのような勾配に基づく攻撃にほぼ及ばないことがわかった。
論文 参考訳(メタデータ) (2022-06-09T22:25:34Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Similarity-based Gray-box Adversarial Attack Against Deep Face
Recognition [11.397740896235089]
本稿では,新たに開発された目的関数を持つ類似性ベースのグレイボックス対向攻撃(SGADV)手法を提案する。
LFW,CelebA,CelebA-HQの顔データセットをFaceNet,InsightFaceの深層顔認識モデルに対して実験する。
提案手法は,グレーボックス設定において,既存の攻撃手法よりも有意に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-01-11T15:53:18Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adversarial Robustness by Design through Analog Computing and Synthetic
Gradients [80.60080084042666]
光コプロセッサにインスパイアされた敵攻撃に対する新しい防御機構を提案する。
ホワイトボックス設定では、我々の防御はランダム投影のパラメータを難読化することで機能する。
光学系におけるランダムプロジェクションとバイナライゼーションの組み合わせにより、様々な種類のブラックボックス攻撃に対するロバスト性も向上する。
論文 参考訳(メタデータ) (2021-01-06T16:15:29Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。