論文の概要: Exposing Fine-grained Adversarial Vulnerability of Face Anti-spoofing
Models
- arxiv url: http://arxiv.org/abs/2205.14851v1
- Date: Mon, 30 May 2022 04:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 17:07:21.854776
- Title: Exposing Fine-grained Adversarial Vulnerability of Face Anti-spoofing
Models
- Title(参考訳): face anti-spoofingモデルにおける細粒度逆境脆弱性の暴露
- Authors: Songlin Yang, Wei Wang, Chenye Xu, Bo Peng and Jing Dong
- Abstract要約: アドリアック攻撃は、顔の反偽造モデルの高い精度を脅かす。
本稿では,顔の反偽造モデルに対する敵対的脆弱性を明らかにするためのきめ細かい攻撃を提案する。
顔属性のアノテーションや最先端のネットワークは、モデルが敵攻撃に対して堅牢であることを保証できない。
- 参考スコア(独自算出の注目度): 14.008634390140088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks seriously threaten the high accuracy of face
anti-spoofing models. Little adversarial noise can perturb their classification
of live and spoofing. The existing adversarial attacks fail to figure out which
part of the target face anti-spoofing model is vulnerable, making adversarial
analysis tricky. So we propose fine-grained attacks for exposing adversarial
vulnerability of face anti-spoofing models. Firstly, we propose Semantic
Feature Augmentation (SFA) module, which makes adversarial noise semantic-aware
to live and spoofing features. SFA considers the contrastive classes of data
and texture bias of models in the context of face anti-spoofing, increasing the
attack success rate by nearly 40% on average. Secondly, we generate
fine-grained adversarial examples based on SFA and the multitask network with
auxiliary information. We evaluate three annotations (facial attributes,
spoofing types and illumination) and two geometric maps (depth and reflection),
on four backbone networks (VGG, Resnet, Densenet and Swin Transformer). We find
that facial attributes annotation and state-of-art networks fail to guarantee
that models are robust to adversarial attacks. Such adversarial attacks can be
generalized to more auxiliary information and backbone networks, to help our
community handle the trade-off between accuracy and adversarial robustness.
- Abstract(参考訳): 敵対的攻撃は、顔の反偽造モデルの高い精度を脅かす。
敵対的雑音は、生身の分類と密封の分類を乱すことがある。
既存の敵対的攻撃は、標的の顔のどの部分が脆弱であるかを把握できず、敵対的分析が難しい。
そこで我々は,顔を汚すモデルの脆弱性を露呈するためのきめ細かな攻撃を提案する。
まず,敵対的なノイズセマンティックアウェアリング機能を実現するセマンティック・フィーチャー・アジュメンテーション(SFA)モジュールを提案する。
sfaは、対スプーフィングの文脈において、データとモデルのテクスチャバイアスの対比クラスを検討し、攻撃成功率を平均40%近く増加させる。
次に, 補助情報付きマルチタスクネットワークとSFAに基づいて, きめ細かい逆例を生成する。
我々は,4つのバックボーンネットワーク(VGG,Resnet,Densenet,Swin Transformer)上で,3つのアノテーション(界面属性,スプーフィングタイプ,照明)と2つの幾何マップ(深度と反射)を評価した。
顔属性アノテーションと最先端ネットワークは、モデルが敵攻撃に対して堅牢であることを保証できない。
このような敵攻撃は、より補助的な情報やバックボーンネットワークに一般化することができ、我々のコミュニティが精度と敵の堅牢性の間のトレードオフを処理するのに役立つ。
関連論文リスト
- Exploring Robust Features for Improving Adversarial Robustness [11.935612873688122]
本研究では, 対向的摂動の影響を受けない頑健な特徴を探索し, モデルの対向的強靭性を改善する。
具体的には、ロバストでない特徴やドメイン固有の特徴からロバストな特徴を分離する機能障害モデルを提案する。
トレーニング済みのドメイン識別器は、クリーンな画像や敵の例から、ほぼ完璧にドメイン固有の特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-09T00:30:04Z) - A Closer Look at Geometric Temporal Dynamics for Face Anti-Spoofing [13.725319422213623]
顔認識システムにはFAS(face anti-spoofing)が不可欠である。
本稿では,通常動作と異常動作を区別するGeometry-Aware Interaction Network (GAIN)を提案する。
提案手法は,標準内部およびクロスデータセット評価における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-25T18:59:52Z) - Learning Polysemantic Spoof Trace: A Multi-Modal Disentanglement Network
for Face Anti-spoofing [34.44061534596512]
本稿では,より正確で堅牢な汎用攻撃検出のために,多面的スプーフトレースをターゲットとしたマルチモーダル・アンタングルモデルを提案する。
特に、対角学習機構に基づいて、RGBと深度入力からそれぞれスプーフパターンを推定する2ストリームディエンタングリングネットワークを設計する。
論文 参考訳(メタデータ) (2022-12-07T20:23:51Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Improving the Transferability of Adversarial Attacks on Face Recognition
with Beneficial Perturbation Feature Augmentation [26.032639566914114]
顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵対的な例によって容易に騙される。
本稿では,既存のFRモデルの盲点を明らかにするために,対向顔例の移動性を改善する。
BPFA(Besticial Perturbation Feature Augmentation Attack)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-28T13:25:59Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Uncertainty-Aware Physically-Guided Proxy Tasks for Unseen Domain Face
Anti-spoofing [128.32381246318954]
Face Anti-Spoofing (FAS)は、偽の顔と偽の顔とを区別しようと試みている。
そこで本研究では,未確認領域のより高度な一般化を実現するために,物理手法を活用することを提案する。
論文 参考訳(メタデータ) (2020-11-28T03:22:26Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。