論文の概要: Resurrecting Trust in Facial Recognition: Mitigating Backdoor Attacks in
Face Recognition to Prevent Potential Privacy Breaches
- arxiv url: http://arxiv.org/abs/2202.10320v1
- Date: Fri, 18 Feb 2022 13:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 21:58:48.811073
- Title: Resurrecting Trust in Facial Recognition: Mitigating Backdoor Attacks in
Face Recognition to Prevent Potential Privacy Breaches
- Title(参考訳): 顔認識における信頼回復: 顔認識におけるバックドア攻撃の軽減と潜在的なプライバシー侵害防止
- Authors: Reena Zelenkova, Jack Swallow, M.A.P. Chamikara, Dongxi Liu, Mohan
Baruwal Chhetri, Seyit Camtepe, Marthie Grobler, Mahathir Almashor
- Abstract要約: 深層学習は顔認識(FR)に広く利用されている
しかし、そのようなモデルは悪意のある当事者によって実行されるバックドア攻撃に対して脆弱である。
BA-BAM: Biometric Authentication - Backdoor Attack Mitigationを提案する。
- 参考スコア(独自算出の注目度): 7.436067208838344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biometric data, such as face images, are often associated with sensitive
information (e.g medical, financial, personal government records). Hence, a
data breach in a system storing such information can have devastating
consequences. Deep learning is widely utilized for face recognition (FR);
however, such models are vulnerable to backdoor attacks executed by malicious
parties. Backdoor attacks cause a model to misclassify a particular class as a
target class during recognition. This vulnerability can allow adversaries to
gain access to highly sensitive data protected by biometric authentication
measures or allow the malicious party to masquerade as an individual with
higher system permissions. Such breaches pose a serious privacy threat.
Previous methods integrate noise addition mechanisms into face recognition
models to mitigate this issue and improve the robustness of classification
against backdoor attacks. However, this can drastically affect model accuracy.
We propose a novel and generalizable approach (named BA-BAM: Biometric
Authentication - Backdoor Attack Mitigation), that aims to prevent backdoor
attacks on face authentication deep learning models through transfer learning
and selective image perturbation. The empirical evidence shows that BA-BAM is
highly robust and incurs a maximal accuracy drop of 2.4%, while reducing the
attack success rate to a maximum of 20%. Comparisons with existing approaches
show that BA-BAM provides a more practical backdoor mitigation approach for
face recognition.
- Abstract(参考訳): 顔画像のような生体データは、しばしば機密情報(医療、財務、個人政府の記録など)に関連付けられている。
したがって、そのような情報を格納するシステムにおけるデータ侵害は、壊滅的な結果をもたらす可能性がある。
ディープラーニングは顔認識(FR)に広く利用されているが、悪意のある者によって実行されるバックドア攻撃には弱い。
バックドア攻撃は、認識中に特定のクラスをターゲットクラスとして誤分類させる。
この脆弱性により、敵は生体認証によって保護される高度に機密性の高いデータにアクセスしたり、悪意のある相手をより高いシステム権限を持つ個人として仮装することができる。
このような侵害は深刻なプライバシーの脅威となる。
従来の手法では、ノイズ付加機構を顔認識モデルに統合し、この問題を軽減し、バックドア攻撃に対する分類の堅牢性を向上させる。
しかし、これはモデル精度に大きな影響を与える可能性がある。
本稿では,顔認証深層学習モデルに対するバックドア攻撃を,移動学習と選択的画像摂動によって防止することを目的とした,新しい一般化可能なアプローチ(BA-BAM: Biometric Authentication - Backdoor Attack Mitigation)を提案する。
実証的な証拠は、BA-BAMは非常に堅牢で、最大精度は2.4%低下し、攻撃成功率は最大20%低下していることを示している。
既存のアプローチと比較すると、BA-BAMは顔認識のためのより実用的なバックドア緩和アプローチを提供する。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Optimizing Key-Selection for Face-based One-Time Biometrics via Morphing [10.057840103622766]
顔認識システムはいまだに敵の攻撃に弱い。
本稿では,競争力のあるキャンセル可能なスキームの安全性を向上させるために,異なる鍵選択手法を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:32:32Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition [55.858374644761525]
顔認識ネットワークは、識別分類のために訓練されている間、機密属性に関する情報を符号化する。
既存のバイアス緩和アプローチでは、エンドツーエンドのトレーニングが必要であり、高い精度を達成できない。
PASS(Protected Attribute Suppression System)と呼ばれる記述子に基づく逆バイアス除去手法を提案する。
パスは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
論文 参考訳(メタデータ) (2021-08-09T00:39:22Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。