論文の概要: Exposing Fine-grained Adversarial Vulnerability of Face Anti-spoofing
Models
- arxiv url: http://arxiv.org/abs/2205.14851v1
- Date: Mon, 30 May 2022 04:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 17:07:21.854776
- Title: Exposing Fine-grained Adversarial Vulnerability of Face Anti-spoofing
Models
- Title(参考訳): face anti-spoofingモデルにおける細粒度逆境脆弱性の暴露
- Authors: Songlin Yang, Wei Wang, Chenye Xu, Bo Peng and Jing Dong
- Abstract要約: アドリアック攻撃は、顔の反偽造モデルの高い精度を脅かす。
本稿では,顔の反偽造モデルに対する敵対的脆弱性を明らかにするためのきめ細かい攻撃を提案する。
顔属性のアノテーションや最先端のネットワークは、モデルが敵攻撃に対して堅牢であることを保証できない。
- 参考スコア(独自算出の注目度): 14.008634390140088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks seriously threaten the high accuracy of face
anti-spoofing models. Little adversarial noise can perturb their classification
of live and spoofing. The existing adversarial attacks fail to figure out which
part of the target face anti-spoofing model is vulnerable, making adversarial
analysis tricky. So we propose fine-grained attacks for exposing adversarial
vulnerability of face anti-spoofing models. Firstly, we propose Semantic
Feature Augmentation (SFA) module, which makes adversarial noise semantic-aware
to live and spoofing features. SFA considers the contrastive classes of data
and texture bias of models in the context of face anti-spoofing, increasing the
attack success rate by nearly 40% on average. Secondly, we generate
fine-grained adversarial examples based on SFA and the multitask network with
auxiliary information. We evaluate three annotations (facial attributes,
spoofing types and illumination) and two geometric maps (depth and reflection),
on four backbone networks (VGG, Resnet, Densenet and Swin Transformer). We find
that facial attributes annotation and state-of-art networks fail to guarantee
that models are robust to adversarial attacks. Such adversarial attacks can be
generalized to more auxiliary information and backbone networks, to help our
community handle the trade-off between accuracy and adversarial robustness.
- Abstract(参考訳): 敵対的攻撃は、顔の反偽造モデルの高い精度を脅かす。
敵対的雑音は、生身の分類と密封の分類を乱すことがある。
既存の敵対的攻撃は、標的の顔のどの部分が脆弱であるかを把握できず、敵対的分析が難しい。
そこで我々は,顔を汚すモデルの脆弱性を露呈するためのきめ細かな攻撃を提案する。
まず,敵対的なノイズセマンティックアウェアリング機能を実現するセマンティック・フィーチャー・アジュメンテーション(SFA)モジュールを提案する。
sfaは、対スプーフィングの文脈において、データとモデルのテクスチャバイアスの対比クラスを検討し、攻撃成功率を平均40%近く増加させる。
次に, 補助情報付きマルチタスクネットワークとSFAに基づいて, きめ細かい逆例を生成する。
我々は,4つのバックボーンネットワーク(VGG,Resnet,Densenet,Swin Transformer)上で,3つのアノテーション(界面属性,スプーフィングタイプ,照明)と2つの幾何マップ(深度と反射)を評価した。
顔属性アノテーションと最先端ネットワークは、モデルが敵攻撃に対して堅牢であることを保証できない。
このような敵攻撃は、より補助的な情報やバックボーンネットワークに一般化することができ、我々のコミュニティが精度と敵の堅牢性の間のトレードオフを処理するのに役立つ。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Adversarial Attacks on Both Face Recognition and Face Anti-spoofing Models [47.72177312801278]
顔認識(FR)システムに対するアドリアック攻撃は、純粋なFRモデルの妥協に非常に効果的であることが証明されている。
本稿では, FR モデルと Face Anti-Spoofing (FAS) モデルの両方を同時に攻撃する新しい設定を提案する。
我々は、FRモデルとFASモデルの両方に対するブラックボックス攻撃のキャパシティを改善するために、スタイル整列分散バイアス(SDB)と呼ばれる新しいアタック手法を導入する。
論文 参考訳(メタデータ) (2024-05-27T08:30:29Z) - A Closer Look at Geometric Temporal Dynamics for Face Anti-Spoofing [13.725319422213623]
顔認識システムにはFAS(face anti-spoofing)が不可欠である。
本稿では,通常動作と異常動作を区別するGeometry-Aware Interaction Network (GAIN)を提案する。
提案手法は,標準内部およびクロスデータセット評価における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-25T18:59:52Z) - Improving the Transferability of Adversarial Attacks on Face Recognition
with Beneficial Perturbation Feature Augmentation [26.032639566914114]
顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵対的な例によって容易に騙される。
本稿では,既存のFRモデルの盲点を明らかにするために,対向顔例の移動性を改善する。
BPFA(Besticial Perturbation Feature Augmentation Attack)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-28T13:25:59Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。