論文の概要: Similarity-based Gray-box Adversarial Attack Against Deep Face
Recognition
- arxiv url: http://arxiv.org/abs/2201.04011v2
- Date: Wed, 12 Jan 2022 09:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 12:40:26.899577
- Title: Similarity-based Gray-box Adversarial Attack Against Deep Face
Recognition
- Title(参考訳): ディープフェイス認識に対する類似性に基づくグレイボックス逆攻撃
- Authors: Hanrui Wang, Shuo Wang, Zhe Jin, Yandan Wang, Cunjian Chen, Massimo
Tistarell
- Abstract要約: 本稿では,新たに開発された目的関数を持つ類似性ベースのグレイボックス対向攻撃(SGADV)手法を提案する。
LFW,CelebA,CelebA-HQの顔データセットをFaceNet,InsightFaceの深層顔認識モデルに対して実験する。
提案手法は,グレーボックス設定において,既存の攻撃手法よりも有意に優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 11.397740896235089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The majority of adversarial attack techniques perform well against deep face
recognition when the full knowledge of the system is revealed
(\emph{white-box}). However, such techniques act unsuccessfully in the gray-box
setting where the face templates are unknown to the attackers. In this work, we
propose a similarity-based gray-box adversarial attack (SGADV) technique with a
newly developed objective function. SGADV utilizes the dissimilarity score to
produce the optimized adversarial example, i.e., similarity-based adversarial
attack. This technique applies to both white-box and gray-box attacks against
authentication systems that determine genuine or imposter users using the
dissimilarity score. To validate the effectiveness of SGADV, we conduct
extensive experiments on face datasets of LFW, CelebA, and CelebA-HQ against
deep face recognition models of FaceNet and InsightFace in both white-box and
gray-box settings. The results suggest that the proposed method significantly
outperforms the existing adversarial attack techniques in the gray-box setting.
We hence summarize that the similarity-base approaches to develop the
adversarial example could satisfactorily cater to the gray-box attack scenarios
for de-authentication.
- Abstract(参考訳): 敵対的攻撃手法の大半は、システムの全知識が明らかにされると、深い顔認識に対して良好に機能する(\emph{white-box})。
しかし、このような手法は攻撃者に顔テンプレートが未知のグレーボックス設定ではうまく機能しない。
本研究では,新たに開発された目的関数を持つ類似性に基づく灰色の箱対向攻撃(SGADV)手法を提案する。
SGADVは、相似性スコアを使用して、最適化された敵の例、すなわち類似性に基づく敵攻撃を生成する。
このテクニックは、ホワイトボックスとグレーボックスの両方で、異なる類似度スコアを使用して真正または偽のユーザを決定する認証システムに対して適用される。
SGADVの有効性を検証するため,LFW,CelebA,CelebA-HQの顔データセットに対して,ホワイトボックスとグレーボックスの両方でFaceNetとInsightFaceの深層顔認識モデルに対して広範な実験を行った。
提案手法は,グレーボックス設定において既存の攻撃手法よりも有意に優れていた。
したがって,本手法の類似性ベースアプローチは,非認証のためのグレイボックス攻撃シナリオに十分対応できる可能性が示唆された。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Counter-Samples: A Stateless Strategy to Neutralize Black Box Adversarial Attacks [2.9815109163161204]
本稿では,ブラックボックス攻撃に対する新たな防御法を提案する。
入力サンプルの衛生化に依存する従来の前処理防御とは異なり、我々の戦略は攻撃プロセス自体に対処する。
我々のアプローチは最先端のブラックボックス攻撃に対して極めて効果的であり、CIFAR-10とImageNetデータセットの双方で既存の防御性能を上回っていることを実証する。
論文 参考訳(メタデータ) (2024-03-14T10:59:54Z) - A Random Ensemble of Encrypted Vision Transformers for Adversarially
Robust Defense [6.476298483207895]
ディープニューラルネットワーク(DNN)は、敵の例(AE)に弱いことがよく知られている。
ホワイトボックス攻撃とブラックボックス攻撃の双方に対してロバスト性を高めるために,暗号化されたモデルのランダムアンサンブルである視覚変換器(ViT)を用いた新しい手法を提案する。
実験では, 画像分類作業において, ホワイトボックス攻撃だけでなくブラックボックス攻撃に対しても頑健であることが実証された。
論文 参考訳(メタデータ) (2024-02-11T12:35:28Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Adversarial Defense via Image Denoising with Chaotic Encryption [65.48888274263756]
攻撃者には秘密鍵以外の全てを利用できると仮定する新しい防御法を提案する。
我々のフレームワークは、離散化ベイカーマップによる暗号化と併用した画像復号化手法を用いている。
論文 参考訳(メタデータ) (2022-03-19T10:25:02Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Self-Supervised Iterative Contextual Smoothing for Efficient Adversarial
Defense against Gray- and Black-Box Attack [24.66829920826166]
グレーボックスとブラックボックス攻撃に対する新しい入力変換に基づく対角防御法を提案する。
我々の防御には計算に費用がかかる敵の訓練は必要ないが、入力変換によってその堅牢な精度にアプローチすることができる。
論文 参考訳(メタデータ) (2021-06-22T09:51:51Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。