論文の概要: Detecting Adversarial Faces Using Only Real Face Self-Perturbations
- arxiv url: http://arxiv.org/abs/2304.11359v2
- Date: Thu, 4 May 2023 01:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 18:31:11.832784
- Title: Detecting Adversarial Faces Using Only Real Face Self-Perturbations
- Title(参考訳): 実顔自己摂動のみを用いた逆顔検出
- Authors: Qian Wang, Yongqin Xian, Hefei Ling, Jinyuan Zhang, Xiaorui Lin, Ping
Li, Jiazhong Chen, Ning Yu
- Abstract要約: アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
- 参考スコア(独自算出の注目度): 36.26178169550577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks aim to disturb the functionality of a target system by
adding specific noise to the input samples, bringing potential threats to
security and robustness when applied to facial recognition systems. Although
existing defense techniques achieve high accuracy in detecting some specific
adversarial faces (adv-faces), new attack methods especially GAN-based attacks
with completely different noise patterns circumvent them and reach a higher
attack success rate. Even worse, existing techniques require attack data before
implementing the defense, making it impractical to defend newly emerging
attacks that are unseen to defenders. In this paper, we investigate the
intrinsic generality of adv-faces and propose to generate pseudo adv-faces by
perturbing real faces with three heuristically designed noise patterns. We are
the first to train an adv-face detector using only real faces and their
self-perturbations, agnostic to victim facial recognition systems, and agnostic
to unseen attacks. By regarding adv-faces as out-of-distribution data, we then
naturally introduce a novel cascaded system for adv-face detection, which
consists of training data self-perturbations, decision boundary regularization,
and a max-pooling-based binary classifier focusing on abnormal local color
aberrations. Experiments conducted on LFW and CelebA-HQ datasets with eight
gradient-based and two GAN-based attacks validate that our method generalizes
to a variety of unseen adversarial attacks.
- Abstract(参考訳): 敵の攻撃は、入力サンプルに特定のノイズを追加してターゲットシステムの機能を阻害することを目的としており、顔認識システムに適用された場合のセキュリティと堅牢性に潜在的な脅威をもたらす。
既存の防御技術は、特定の対向顔(adv面)の検出において高い精度を達成するが、新しい攻撃方法、特に全く異なるノイズパターンを持つGANベースの攻撃はそれらを回避し、より高い攻撃成功率に達する。
さらに悪いことに、既存の技術は防御を実装する前に攻撃データを必要とするため、防御者には見えない新たな攻撃を防衛することは現実的ではない。
本稿では,3つのヒューリスティックなノイズパターンを持つ実顔を摂動させることにより,adv面の固有一般性を検証し,擬似adv面を生成することを提案する。
実顔と自己摂動のみを使用してadv顔検出を訓練し、被害者の顔認証システムに無関係であり、目に見えない攻撃に無関係である。
そこで本研究では,adv-facesを分散データとして扱うことにより,異常局所色収差に着目したデータ自己摂動,決定境界正規化,最大プール型2値分類器からなる新しいadv-face検出用カスケードシステムを提案する。
LFWとCelebA-HQの8つの勾配ベースと2つのGANベースの攻撃を用いた実験により、本手法が様々な未知の敵攻撃に一般化できることが確認された。
関連論文リスト
- Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - A Random-patch based Defense Strategy Against Physical Attacks for Face
Recognition Systems [3.6202815454709536]
顔認識システム(FRS)の物理的攻撃を頑健に検出するランダムパッチ型防御戦略を提案する。
本手法は実世界の顔認識システムに容易に適用でき,検出性能を高めるために他の防御方法にも拡張できる。
論文 参考訳(メタデータ) (2023-04-16T16:11:56Z) - Attacking Face Recognition with T-shirts: Database, Vulnerability
Assessment and Detection [0.0]
我々は,100のユニークな提示攻撃器を用いた1,608のTシャツ攻撃の新しいTシャツ顔提示攻撃データベースを提案する。
このような攻撃は、顔認識システムのセキュリティを損なう可能性があり、いくつかの最先端の攻撃検出メカニズムが、新しい攻撃に対して堅牢に一般化できないことを示す。
論文 参考訳(メタデータ) (2022-11-14T14:11:23Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Adversarial Defense for Automatic Speaker Verification by
Self-Supervised Learning [101.42920161993455]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Uncertainty-Aware Physically-Guided Proxy Tasks for Unseen Domain Face
Anti-spoofing [128.32381246318954]
Face Anti-Spoofing (FAS)は、偽の顔と偽の顔とを区別しようと試みている。
そこで本研究では,未確認領域のより高度な一般化を実現するために,物理手法を活用することを提案する。
論文 参考訳(メタデータ) (2020-11-28T03:22:26Z) - FaceHack: Triggering backdoored facial recognition systems using facial
characteristics [16.941198804770607]
機械学習の最近の進歩は、現実世界のアプリケーションに広く使われるための新しい道を開いた。
近年の研究では、顔認識システムで一般的に使用されるディープニューラルネットワーク(DNN)が、バックドア攻撃の影響を受けやすいことが示されている。
本研究は,MLモデルにおいて,顔の特徴の特定の変化が悪意ある行動を引き起こすことを実証するものである。
論文 参考訳(メタデータ) (2020-06-20T17:39:23Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。