論文の概要: PPR: Enhancing Dodging Attacks while Maintaining Impersonation Attacks
on Face Recognition Systems
- arxiv url: http://arxiv.org/abs/2401.08903v2
- Date: Fri, 16 Feb 2024 02:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:18:53.228509
- Title: PPR: Enhancing Dodging Attacks while Maintaining Impersonation Attacks
on Face Recognition Systems
- Title(参考訳): PPR:顔認識システムにおける偽装攻撃の維持とドーピング攻撃の強化
- Authors: Fengfan Zhou, Heifei Ling, Bangjie Yin, Hui Zheng
- Abstract要約: 顔認識に対する敵対的攻撃(FR)は、偽装攻撃と回避攻撃の2つのタイプを含む。
PPR(Pre-training Pruning Restoration Attack)と呼ばれる新たな攻撃方法を提案する。
我々は,偽装攻撃の悪化を回避しつつ,ドッジ攻撃の性能を高めることを目的としている。
- 参考スコア(独自算出の注目度): 7.098244290305711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial Attacks on Face Recognition (FR) encompass two types:
impersonation attacks and evasion attacks. We observe that achieving a
successful impersonation attack on FR does not necessarily ensure a successful
dodging attack on FR in the black-box setting. Introducing a novel attack
method named Pre-training Pruning Restoration Attack (PPR), we aim to enhance
the performance of dodging attacks whilst avoiding the degradation of
impersonation attacks. Our method employs adversarial example pruning, enabling
a portion of adversarial perturbations to be set to zero, while tending to
maintain the attack performance. By utilizing adversarial example pruning, we
can prune the pre-trained adversarial examples and selectively free up certain
adversarial perturbations. Thereafter, we embed adversarial perturbations in
the pruned area, which enhances the dodging performance of the adversarial face
examples. The effectiveness of our proposed attack method is demonstrated
through our experimental results, showcasing its superior performance.
- Abstract(参考訳): 顔認識に対する敵対的攻撃(FR)は、偽装攻撃と回避攻撃の2つのタイプを含む。
我々は, FRに対する偽装攻撃を成功させることが, ブラックボックス設定において, FRに対する偽装攻撃を成功させるとは限らないことを観察した。
本研究では, PPR (Pre-training Pruning Restoration Attack) と呼ばれる新たな攻撃手法を導入し, 偽装攻撃の防止を図りつつ, ドッジ攻撃の性能向上を図る。
提案手法は,攻撃性能を維持しつつ,敵の摂動の一部をゼロに設定できる,敵のサンプルプルーニングを用いる。
敵の例を刈り取ることで、事前訓練された敵の例を刈り取ることができ、特定の敵の摂動を選択的に解放することができる。
その後, プルーニング領域に対向性摂動を埋め込み, 対向性面の実例のドッジ性能を高める。
提案手法の有効性を実験により実証し,その優れた性能を示す。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Distributional Adversarial Loss [15.258476329309044]
敵の攻撃に対して防衛する上での大きな課題は、単純な敵さえも実行可能な攻撃の巨大な空間である。
これにはランダムな平滑化手法が含まれており、敵の影響を除去するために入力にノイズを加える。
もう一つのアプローチは入力の離散化であり、敵の可能なアクションの数を制限する。
論文 参考訳(メタデータ) (2024-06-05T17:03:47Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Discrete Point-wise Attack Is Not Enough: Generalized Manifold
Adversarial Attack for Face Recognition [10.03652348636603]
我々は、より優れた攻撃性能を達成するために、GMAA(Generalized Manifold Adversarial Attack)の新たなパイプラインを導入する。
GMAAは攻撃対象を1から複数に拡大し、生成した敵の例に対して優れた一般化能力を促進する。
提案手法の有効性を実験的に検証し, GMAAは, より高度な一般化能力と視覚的品質を備えた, セマンティックな連続的対角空間を約束することを示した。
論文 参考訳(メタデータ) (2022-12-19T02:57:55Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。