論文の概要: FaceGuard: A Self-Supervised Defense Against Adversarial Face Images
- arxiv url: http://arxiv.org/abs/2011.14218v2
- Date: Mon, 5 Apr 2021 20:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:38:23.813431
- Title: FaceGuard: A Self-Supervised Defense Against Adversarial Face Images
- Title(参考訳): FaceGuard: 敵の顔画像に対する自己監督型防御
- Authors: Debayan Deb, Xiaoming Liu, Anil K. Jain
- Abstract要約: 我々は,多種多様な対向顔を自動的に検出し,局所化し,浄化する,新たな自己監督型対向防御フレームワークFaceGuardを提案する。
トレーニング中、FaceGuardは、困難で多様な敵攻撃を自動的に合成し、分類器が実際の顔と区別することを学ぶことができる。
LFWデータセットの実験結果から、FaceGuardは6つの未知の敵攻撃タイプに対して99.81%の精度で検出できることが示された。
- 参考スコア(独自算出の注目度): 59.656264895721215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prevailing defense mechanisms against adversarial face images tend to overfit
to the adversarial perturbations in the training set and fail to generalize to
unseen adversarial attacks. We propose a new self-supervised adversarial
defense framework, namely FaceGuard, that can automatically detect, localize,
and purify a wide variety of adversarial faces without utilizing pre-computed
adversarial training samples. During training, FaceGuard automatically
synthesizes challenging and diverse adversarial attacks, enabling a classifier
to learn to distinguish them from real faces and a purifier attempts to remove
the adversarial perturbations in the image space. Experimental results on LFW
dataset show that FaceGuard can achieve 99.81% detection accuracy on six unseen
adversarial attack types. In addition, the proposed method can enhance the face
recognition performance of ArcFace from 34.27% TAR @ 0.1% FAR under no defense
to 77.46% TAR @ 0.1% FAR.
- Abstract(参考訳): 対向顔画像に対する防御機構は、トレーニングセットの対向的摂動に過度に適合し、対向的でない攻撃に一般化できない傾向にある。
提案する自己監督型対向防御フレームワークであるFaceGuardは,事前計算した対向訓練サンプルを使わずに,多種多様な対向顔を自動的に検出,局所化,浄化することができる。
訓練中、faceguardは挑戦的で多様な敵の攻撃を自動的に合成し、分類器が実際の顔と区別することを学び、精製器は画像空間の敵の摂動を取り除こうとする。
LFWデータセットの実験結果によると、FaceGuardは6つの見えない敵攻撃タイプに対して99.81%の精度で検出できる。
さらに,提案手法はarcfaceの認識性能を34.27% tar @ 0.1% から 77.46% tar @ 0.1% まで向上させることができる。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - PuFace: Defending against Facial Cloaking Attacks for Facial Recognition Models [1.455585466338228]
最近提案された顔認識攻撃は、ユーザーが無許可の顔認識モデルで認識されるのを防ぐために、顔画像に目に見えない摂動(クローク)を付加する。
本稿では,ニューラルネットワークの一般化能力を活用してクロークの影響を低減した画像浄化システムであるPuFaceを紹介する。
我々の実証実験は、PuFaceが2つの最先端の顔認識攻撃に対して効果的に防御でき、攻撃の成功率を平均で69.84%から7.61%に下げることを示している。
論文 参考訳(メタデータ) (2024-06-04T12:19:09Z) - Generalized Attacks on Face Verification Systems [2.4259557752446637]
ディープニューラルネットワークモデルを用いた顔認証(FV)は近年大きく進歩している。
FVシステムは、通常人間に知られない方法でこれらのシステムを騙すために入力画像を操作する敵攻撃(Adversarial Attacks)に弱い。
与えられたアイデンティティの集合を識別する顔画像の作成を定式化するDodgePersonation Attackを導入する。
論文 参考訳(メタデータ) (2023-09-12T00:00:24Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Unified Detection of Digital and Physical Face Attacks [61.6674266994173]
顔攻撃に対する最先端の防御メカニズムは、敵対的、デジタル操作、または物理的な偽装の3つの攻撃カテゴリのうちの1つでほぼ完璧な精度を達成します。
この3つのカテゴリに属する25のコヒーレントな攻撃タイプを自動的にクラスタリングできる統合攻撃検出フレームワーク(UniFAD)を提案する。
論文 参考訳(メタデータ) (2021-04-05T21:08:28Z) - Vulnerability of Face Recognition Systems Against Composite Face
Reconstruction Attack [3.3707422585608953]
ラウンド信頼スコアは自明であるが、勾配降下画像再構成攻撃を阻止するためのシンプルで効果的な対策であると考えられる。
本稿では, 複合顔を用いた顔復元攻撃が, 丸め政策の非効率性を明らかにすることを実証する。
論文 参考訳(メタデータ) (2020-08-23T03:37:51Z) - Encryption Inspired Adversarial Defense for Visual Classification [17.551718914117917]
本稿では,画像暗号化方式に触発された新たな敵防御手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ画素シャッフル方式を用いる。
精度が高い(クリーン画像91.55、CIFAR-10データセットでノイズ距離8/255の逆例89.66)。
論文 参考訳(メタデータ) (2020-05-16T14:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。