論文の概要: AdvFAS: A robust face anti-spoofing framework against adversarial
examples
- arxiv url: http://arxiv.org/abs/2308.02116v1
- Date: Fri, 4 Aug 2023 02:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 14:02:10.571376
- Title: AdvFAS: A robust face anti-spoofing framework against adversarial
examples
- Title(参考訳): AdvFAS: 敵対的事例に対する堅牢な対面反偽造フレームワーク
- Authors: Jiawei Chen, Xiao Yang, Heng Yin, Mingzhi Ma, Bihui Chen, Jianteng
Peng, Yandong Guo, Zhaoxia Yin, Hang Su
- Abstract要約: 本稿では,2つの組み合わされたスコアを利用して,正しく検出された顔画像と誤検出された顔画像とを正確に識別する,頑健な顔アンチスプーフィングフレームワークAdvFASを提案する。
実験では、さまざまなアタック、データセット、バックボーンなど、さまざまな設定でフレームワークの有効性を実証しています。
- 参考スコア(独自算出の注目度): 24.07755324680827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring the reliability of face recognition systems against presentation
attacks necessitates the deployment of face anti-spoofing techniques. Despite
considerable advancements in this domain, the ability of even the most
state-of-the-art methods to defend against adversarial examples remains
elusive. While several adversarial defense strategies have been proposed, they
typically suffer from constrained practicability due to inevitable trade-offs
between universality, effectiveness, and efficiency. To overcome these
challenges, we thoroughly delve into the coupled relationship between
adversarial detection and face anti-spoofing. Based on this, we propose a
robust face anti-spoofing framework, namely AdvFAS, that leverages two coupled
scores to accurately distinguish between correctly detected and wrongly
detected face images. Extensive experiments demonstrate the effectiveness of
our framework in a variety of settings, including different attacks, datasets,
and backbones, meanwhile enjoying high accuracy on clean examples. Moreover, we
successfully apply the proposed method to detect real-world adversarial
examples.
- Abstract(参考訳): プレゼンテーション攻撃に対する顔認識システムの信頼性を確保するには、顔を汚す対策が不可欠である。
この領域でかなりの進歩があったにも拘わらず、最も最先端の手法でも敵対的な例に対抗できる能力はいまだに解明されていない。
いくつかの敵防衛戦略が提案されているが、一般的には普遍性、有効性、効率性のトレードオフが避けられないため、制限された実践性に悩まされる。
これらの課題を克服するため,敵意検出と対面防止の関係を徹底的に検討した。
そこで本研究では,2つの組み合わされたスコアを利用して,検出された顔画像と検出された顔画像の正確な識別を行う。
さまざまなアタックやデータセット、バックボーンなど、さまざまな設定でフレームワークの有効性を実証し、クリーンな例では高い精度を享受しています。
さらに,提案手法を実世界の逆例検出に適用した。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Constructing Semantics-Aware Adversarial Examples with a Probabilistic Perspective [4.168954634479465]
本稿では,敵対例の生成過程において,意味論の主観的理解を分布として組み込むための確率論的視点を提案する。
本手法は画像の全体的意味を保存し,人間の検出を困難にしている。
論文 参考訳(メタデータ) (2023-06-01T05:16:44Z) - The Best Defense is Attack: Repairing Semantics in Textual Adversarial Examples [7.622122513456483]
反応摂動デフォーカス(Rapid)という新しいアプローチを導入する。
ラピッドは、敵の例の偽のラベルを識別し、敵の攻撃者を利用して敵の例のセマンティクスを修復するために、敵の検知器を使用している。
各種攻撃シナリオにおけるRapidの有効性を実証するために,4つの公開データセットを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2023-05-06T15:14:11Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Defense against adversarial attacks on spoofing countermeasures of ASV [95.87555881176529]
本稿では,ASVスプーフィング対策モデルの脆弱性を軽減するために,パッシブ・ディフェンス法,空間平滑化法,プロアクティブ・ディフェンス・トレーニング法を提案する。
実験結果から, これらの2つの防御手法は, 対向する対向的例に対して, 対向的対策モデルを偽装するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2020-03-06T08:08:54Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。