論文の概要: On Brightness Agnostic Adversarial Examples Against Face Recognition
Systems
- arxiv url: http://arxiv.org/abs/2109.14205v1
- Date: Wed, 29 Sep 2021 06:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 15:03:43.538266
- Title: On Brightness Agnostic Adversarial Examples Against Face Recognition
Systems
- Title(参考訳): 顔認識システムに対する輝度非依存な逆例について
- Authors: Inderjeet Singh, Satoru Momiyama, Kazuya Kakizaki, Toshinori Araki
- Abstract要約: 逆例(英: adversarial example, AX)とは、ターゲットシステムによる誤った予測を意図的に生成した画像である。
本手法は,カリキュラム学習の概念を活用しつつ,非線形輝度変換を行う。
この方法は、明るさAXに対するFRSの実用的なリスク評価を可能にする。
- 参考スコア(独自算出の注目度): 6.730018600606621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel adversarial example generation method against
face recognition systems (FRSs). An adversarial example (AX) is an image with
deliberately crafted noise to cause incorrect predictions by a target system.
The AXs generated from our method remain robust under real-world brightness
changes. Our method performs non-linear brightness transformations while
leveraging the concept of curriculum learning during the attack generation
procedure. We demonstrate that our method outperforms conventional techniques
from comprehensive experimental investigations in the digital and physical
world. Furthermore, this method enables practical risk assessment of FRSs
against brightness agnostic AXs.
- Abstract(参考訳): 本稿では,顔認識システム(frss)に対する新しい逆例生成手法を提案する。
逆例(英: adversarial example, AX)とは、ターゲットシステムによる誤った予測を意図的に生成した画像である。
本手法で生成した軸は実世界の明るさ変化でも頑健なままである。
本手法は,攻撃生成過程におけるカリキュラム学習の概念を活用しつつ,非線形輝度変換を行う。
本手法は,デジタル・物理分野における総合的な実験研究で従来の手法よりも優れていることを示す。
さらに、この方法により、明るさ非依存のAXに対するFRSの実用的リスク評価が可能となる。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Low-Mid Adversarial Perturbation against Unauthorized Face Recognition
System [20.979192130022334]
エンブロー周波数対向摂動(LFAP)と呼ばれる新しい解法を提案する。
この手法は、逆トレーニングにより低周波特性を利用するようにソースモデルに条件付けする。
また,中周波成分を付加的利益のために組み込んだ改良型エンフェロー中周波対向摂動(LMFAP)も導入した。
論文 参考訳(メタデータ) (2022-06-19T14:15:49Z) - Attack Analysis of Face Recognition Authentication Systems Using Fast
Gradient Sign Method [0.0]
本稿では,生体認証のための顔認識を用いてFGSM攻撃を解析・提示する。
機械学習技術は、モデルのトレーニングとテストに使われており、異なる人の顔の分類と識別が可能である。
論文 参考訳(メタデータ) (2022-03-10T21:35:59Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Adversarial Relighting against Face Recognition [18.813967095498697]
我々は,新たな角度,すなわち対向的リライティングによる深層顔認識に対する照明の脅威について検討する。
顔画像が与えられたら、敵のリライティングは、最先端のディープFRメソッドを騙しながら、自然にリライティングされた相手を作り出すことを目的としている。
当社の手法は、FaceNet、ArcFace、CosFaceという最先端の3つのディープFRメソッドに対して、2つのパブリックデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-18T01:05:53Z) - Aurora Guard: Reliable Face Anti-Spoofing via Mobile Lighting System [103.5604680001633]
紙写真やデジタルビデオの高解像度レンダリングリプレイに対する反偽造は、未解決の問題だ。
オーロラガード(Aurora Guard, AG)と呼ばれる, シンプルだが効果的な顔保護システムを提案する。
論文 参考訳(メタデータ) (2021-02-01T09:17:18Z) - Robustness of Facial Recognition to GAN-based Face-morphing Attacks [3.3734683025502723]
我々は、攻撃者が既に武器に持っている可能性のある2つの新しいGANベースの方法を特定する。
各手法は最先端顔認識(fr)アルゴリズムに対して評価される。
本研究では,FRアルゴリズムの忠実性の向上が,形態画像による攻撃成功率の低下につながることを実証した。
論文 参考訳(メタデータ) (2020-12-18T23:06:20Z) - On the Effectiveness of Vision Transformers for Zero-shot Face
Anti-Spoofing [7.665392786787577]
本研究では、ゼロショットアンチスプーフィングタスクにおいて、視覚変換器モデルからの伝達学習を用いる。
提案手法は、HQ-WMCAおよびSiW-Mデータセットにおけるゼロショットプロトコルにおける最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-11-16T15:14:59Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。