論文の概要: Perturbation Inactivation Based Adversarial Defense for Face Recognition
- arxiv url: http://arxiv.org/abs/2207.06035v1
- Date: Wed, 13 Jul 2022 08:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:07:01.233352
- Title: Perturbation Inactivation Based Adversarial Defense for Face Recognition
- Title(参考訳): 摂動不活性化に基づく顔認識のための対向防御
- Authors: Min Ren, Yuhao Zhu, Yunlong Wang, Zhenan Sun
- Abstract要約: ディープラーニングベースの顔認識モデルは、敵攻撃に対して脆弱である。
直感的なアプローチは、敵の摂動を不活性化し、一般的な摂動として容易に扱えるようにすることである。
対向防御のための対向的摂動不活性化法として, プラグ・アンド・プレイ型対向防御法(PIN)を提案する。
- 参考スコア(独自算出の注目度): 45.73745401760292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based face recognition models are vulnerable to adversarial
attacks. To curb these attacks, most defense methods aim to improve the
robustness of recognition models against adversarial perturbations. However,
the generalization capacities of these methods are quite limited. In practice,
they are still vulnerable to unseen adversarial attacks. Deep learning models
are fairly robust to general perturbations, such as Gaussian noises. A
straightforward approach is to inactivate the adversarial perturbations so that
they can be easily handled as general perturbations. In this paper, a
plug-and-play adversarial defense method, named perturbation inactivation
(PIN), is proposed to inactivate adversarial perturbations for adversarial
defense. We discover that the perturbations in different subspaces have
different influences on the recognition model. There should be a subspace,
called the immune space, in which the perturbations have fewer adverse impacts
on the recognition model than in other subspaces. Hence, our method estimates
the immune space and inactivates the adversarial perturbations by restricting
them to this subspace. The proposed method can be generalized to unseen
adversarial perturbations since it does not rely on a specific kind of
adversarial attack method. This approach not only outperforms several
state-of-the-art adversarial defense methods but also demonstrates a superior
generalization capacity through exhaustive experiments. Moreover, the proposed
method can be successfully applied to four commercial APIs without additional
training, indicating that it can be easily generalized to existing face
recognition systems. The source code is available at
https://github.com/RenMin1991/Perturbation-Inactivate
- Abstract(参考訳): ディープラーニングベースの顔認識モデルは、敵攻撃に対して脆弱である。
これらの攻撃を抑制するため、ほとんどの防衛方法は、敵の摂動に対する認識モデルの堅牢性を改善することを目的としている。
しかし、これらの方法の一般化能力は非常に限られている。
実際には、彼らはまだ目に見えない敵の攻撃に弱い。
ディープラーニングモデルはガウスノイズのような一般的な摂動に対してかなり堅牢である。
直感的なアプローチは、敵の摂動を不活性化し、一般的な摂動として容易に扱えるようにすることである。
本稿では, 対人防御のための対人的摂動を不活性化するために, 対人防御法である摂動不活性化法(PIN)を提案する。
異なる部分空間の摂動が認識モデルに異なる影響を与えることが判明した。
免疫空間と呼ばれる部分空間が存在するべきであり、摂動は他の部分空間よりも認識モデルに対する悪影響が少ない。
したがって, 免疫空間を推定し, この部分空間に制限することにより, 逆摂動を不活性化する。
提案手法は,特定の種類の対向攻撃法に依存しないため,未知の対向的摂動に一般化することができる。
このアプローチは、いくつかの最先端の敵対的防御方法を上回るだけでなく、徹底的な実験を通じて優れた一般化能力を示す。
さらに,提案手法を4つの商用APIに適用することで,既存の顔認識システムに容易に適用可能であることを示す。
ソースコードはhttps://github.com/RenMin 1991/Perturbation-Inactivateで入手できる。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Demiguise Attack: Crafting Invisible Semantic Adversarial Perturbations
with Perceptual Similarity [5.03315505352304]
敵対的な例は、視覚的に知覚できない摂動を持つ悪意のあるイメージである。
我々は、知覚的類似性による非制限の摂動を創りだすデミガイズアタックを提案する。
我々のアプローチでは、広く利用されている攻撃を拡大し、敵に対する効果を著しく高めつつ、認識不能に寄与する。
論文 参考訳(メタデータ) (2021-07-03T10:14:01Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。