論文の概要: PuFace: Defending against Facial Cloaking Attacks for Facial Recognition Models
- arxiv url: http://arxiv.org/abs/2406.02253v1
- Date: Tue, 4 Jun 2024 12:19:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 16:32:17.858302
- Title: PuFace: Defending against Facial Cloaking Attacks for Facial Recognition Models
- Title(参考訳): PuFace:顔認識モデルにおける顔のクローズ攻撃に対する防御
- Authors: Jing Wen,
- Abstract要約: 最近提案された顔認識攻撃は、ユーザーが無許可の顔認識モデルで認識されるのを防ぐために、顔画像に目に見えない摂動(クローク)を付加する。
本稿では,ニューラルネットワークの一般化能力を活用してクロークの影響を低減した画像浄化システムであるPuFaceを紹介する。
我々の実証実験は、PuFaceが2つの最先端の顔認識攻撃に対して効果的に防御でき、攻撃の成功率を平均で69.84%から7.61%に下げることを示している。
- 参考スコア(独自算出の注目度): 1.455585466338228
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recently proposed facial cloaking attacks add invisible perturbation (cloaks) to facial images to protect users from being recognized by unauthorized facial recognition models. However, we show that the "cloaks" are not robust enough and can be removed from images. This paper introduces PuFace, an image purification system leveraging the generalization ability of neural networks to diminish the impact of cloaks by pushing the cloaked images towards the manifold of natural (uncloaked) images before the training process of facial recognition models. Specifically, we devise a purifier that takes all the training images including both cloaked and natural images as input and generates the purified facial images close to the manifold where natural images lie. To meet the defense goal, we propose to train the purifier on particularly amplified cloaked images with a loss function that combines image loss and feature loss. Our empirical experiment shows PuFace can effectively defend against two state-of-the-art facial cloaking attacks and reduces the attack success rate from 69.84\% to 7.61\% on average without degrading the normal accuracy for various facial recognition models. Moreover, PuFace is a model-agnostic defense mechanism that can be applied to any facial recognition model without modifying the model structure.
- Abstract(参考訳): 最近提案された顔認識攻撃は、ユーザーが無許可の顔認識モデルで認識されるのを防ぐために、顔画像に目に見えない摂動(クローク)を追加する。
しかし、"クローズ"は十分に堅牢ではなく、画像から除去できることが示されている。
本稿では,ニューラルネットワークの一般化能力を活用した画像浄化システムであるPuFaceを紹介する。
具体的には, 自然画像を含むすべての訓練画像を入力として取り出し, 自然画像が横たわる多様体近傍の精製顔画像を生成する。
本研究の目的は,特に増幅されたクローク画像に対して,画像損失と特徴損失を組み合わせた損失関数を学習することである。
我々の実証実験は、PuFaceが2つの最先端の顔認識攻撃に対して効果的に防御できることを示し、様々な顔認識モデルの正常な精度を低下させることなく、攻撃成功率を平均69.84\%から7.61\%に下げることを示した。
さらに、PuFaceはモデル構造を変更することなく、どんな顔認識モデルにも適用可能な、モデルに依存しない防御機構である。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Privacy-Preserving Face Recognition Using Trainable Feature Subtraction [40.47645421424354]
顔認識はプライバシーの懸念を増している。
本稿では,視覚障害と回復障害に対する顔画像保護について検討する。
我々は,この手法を新たなプライバシ保護顔認識手法であるMinusFaceに精錬する。
論文 参考訳(メタデータ) (2024-03-19T05:27:52Z) - Privacy-preserving Adversarial Facial Features [31.885215405010687]
本稿では, 顔のプライバシ保護に配慮した顔のプライバシー保護手法を提案する。
我々は,AdvFaceが再建攻撃に対する防御において,最先端のプライバシー保護手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T08:52:08Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - FaceGuard: A Self-Supervised Defense Against Adversarial Face Images [59.656264895721215]
我々は,多種多様な対向顔を自動的に検出し,局所化し,浄化する,新たな自己監督型対向防御フレームワークFaceGuardを提案する。
トレーニング中、FaceGuardは、困難で多様な敵攻撃を自動的に合成し、分類器が実際の顔と区別することを学ぶことができる。
LFWデータセットの実験結果から、FaceGuardは6つの未知の敵攻撃タイプに対して99.81%の精度で検出できることが示された。
論文 参考訳(メタデータ) (2020-11-28T21:18:46Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Fawkes: Protecting Privacy against Unauthorized Deep Learning Models [34.04323550970413]
Fawkesは、個人が画像に無許可の顔認識モデルに接種するのを助けるシステムだ。
我々は、Fawkesがユーザー認識に対する95%以上の保護を提供していることを実験的に実証した。
私たちは、今日の最先端の顔認識サービスに対する実験で100%成功しました。
論文 参考訳(メタデータ) (2020-02-19T18:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。