論文の概要: FaceHack: Triggering backdoored facial recognition systems using facial
characteristics
- arxiv url: http://arxiv.org/abs/2006.11623v1
- Date: Sat, 20 Jun 2020 17:39:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:29:55.970083
- Title: FaceHack: Triggering backdoored facial recognition systems using facial
characteristics
- Title(参考訳): FaceHack: 顔の特徴を利用したバックドア顔認識システム
- Authors: Esha Sarkar, Hadjer Benkraouda, Michail Maniatakos
- Abstract要約: 機械学習の最近の進歩は、現実世界のアプリケーションに広く使われるための新しい道を開いた。
近年の研究では、顔認識システムで一般的に使用されるディープニューラルネットワーク(DNN)が、バックドア攻撃の影響を受けやすいことが示されている。
本研究は,MLモデルにおいて,顔の特徴の特定の変化が悪意ある行動を引き起こすことを実証するものである。
- 参考スコア(独自算出の注目度): 16.941198804770607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Machine Learning (ML) have opened up new avenues for its
extensive use in real-world applications. Facial recognition, specifically, is
used from simple friend suggestions in social-media platforms to critical
security applications for biometric validation in automated immigration at
airports. Considering these scenarios, security vulnerabilities to such ML
algorithms pose serious threats with severe outcomes. Recent work demonstrated
that Deep Neural Networks (DNNs), typically used in facial recognition systems,
are susceptible to backdoor attacks; in other words,the DNNs turn malicious in
the presence of a unique trigger. Adhering to common characteristics for being
unnoticeable, an ideal trigger is small, localized, and typically not a part of
the main im-age. Therefore, detection mechanisms have focused on detecting
these distinct trigger-based outliers statistically or through their
reconstruction. In this work, we demonstrate that specific changes to facial
characteristics may also be used to trigger malicious behavior in an ML model.
The changes in the facial attributes maybe embedded artificially using
social-media filters or introduced naturally using movements in facial muscles.
By construction, our triggers are large, adaptive to the input, and spread over
the entire image. We evaluate the success of the attack and validate that it
does not interfere with the performance criteria of the model. We also
substantiate the undetectability of our triggers by exhaustively testing them
with state-of-the-art defenses.
- Abstract(参考訳): 機械学習(ML)の最近の進歩は、現実世界のアプリケーションに広く使われるための新しい道を開いた。
顔認識は、特に、ソーシャルメディアプラットフォームにおける単純な友人提案から、空港における自動移民における生体認証バリデーションのための重要なセキュリティアプリケーションまで使われる。
これらのシナリオを考慮すると、このようなMLアルゴリズムに対するセキュリティ脆弱性は深刻な結果を伴う深刻な脅威を引き起こす。
最近の研究は、一般的に顔認識システムで使用されるディープニューラルネットワーク(DNN)がバックドア攻撃の影響を受けやすいことを実証している。
注目されないという共通の特徴に固執すると、理想的なトリガーは小さく、ローカライズされ、通常メインのim-ageの一部ではない。
したがって、検出メカニズムは、統計的または再構成を通して、これらの異なるトリガーベースの外れ値を検出することに重点を置いている。
本研究は,MLモデルにおいて,顔の特徴の特定の変化が悪意ある行動を引き起こすことを実証するものである。
顔の属性の変化は、ソーシャルメディアフィルターを使って人工的に埋め込んだり、顔の筋肉の動きを使って自然に導入されたりする。
構築によって、我々のトリガーは大きく、入力に適応し、画像全体に広がる。
我々は,攻撃の成功を評価し,モデルの性能基準に干渉しないことを確認した。
また、最先端の防御で徹底的にテストすることで、トリガーの非検出性を裏付ける。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - MakeupAttack: Feature Space Black-box Backdoor Attack on Face Recognition via Makeup Transfer [6.6251662169603005]
メイクアップアタック(MakeupAttack)と呼ばれるメイクアップトランスファーによる顔認証に対するバックドア攻撃を提案する。
本攻撃では,提案したメイクスタイルトリガーの微妙な特徴を学習するための反復訓練パラダイムを設計する。
提案手法は, モデル性能を損なうことなく, 有効性, 堅牢性, 自然性, ステルス性を保ちながら, 既存の防御を回避できることを示す。
論文 参考訳(メタデータ) (2024-08-22T11:39:36Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - End2End Occluded Face Recognition by Masking Corrupted Features [82.27588990277192]
最先端の一般的な顔認識モデルは、隠蔽された顔画像に対してうまく一般化しない。
本稿では,1つのエンドツーエンドのディープニューラルネットワークに基づいて,オクルージョンに頑健な新しい顔認識手法を提案する。
我々のアプローチは、深い畳み込みニューラルネットワークから破損した特徴を発見し、動的に学習されたマスクによってそれらをきれいにする。
論文 参考訳(メタデータ) (2021-08-21T09:08:41Z) - Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models [43.51625789744288]
転写性に基づいた対向パッチを用いた顔認識モデルのロバスト性の評価を行った。
代用モデルと対象モデルの応答のギャップが劇的に減少し,転送性が向上したことを示す。
論文 参考訳(メタデータ) (2021-06-29T02:13:05Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。