論文の概要: Detection of Makeup Presentation Attacks based on Deep Face
Representations
- arxiv url: http://arxiv.org/abs/2006.05074v2
- Date: Tue, 19 Jan 2021 11:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:03:28.250557
- Title: Detection of Makeup Presentation Attacks based on Deep Face
Representations
- Title(参考訳): ディープフェイス表現に基づくメイクアップ提示攻撃の検出
- Authors: Christian Rathgeb, Pawel Drozdowski, Christoph Busch
- Abstract要約: メークアップの応用は、いわゆるメイクアップ攻撃を開始するために悪用される。
化粧品の提示攻撃が顔認識システムのセキュリティに深刻な影響を及ぼす可能性が示唆された。
本稿では,実際の認証手法とメイクアップ攻撃を区別する攻撃検出手法を提案する。
- 参考スコア(独自算出の注目度): 16.44565034551196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial cosmetics have the ability to substantially alter the facial
appearance, which can negatively affect the decisions of a face recognition. In
addition, it was recently shown that the application of makeup can be abused to
launch so-called makeup presentation attacks. In such attacks, the attacker
might apply heavy makeup in order to achieve the facial appearance of a target
subject for the purpose of impersonation. In this work, we assess the
vulnerability of a COTS face recognition system to makeup presentation attacks
employing the publicly available Makeup Induced Face Spoofing (MIFS) database.
It is shown that makeup presentation attacks might seriously impact the
security of the face recognition system. Further, we propose an attack
detection scheme which distinguishes makeup presentation attacks from genuine
authentication attempts by analysing differences in deep face representations
obtained from potential makeup presentation attacks and corresponding target
face images. The proposed detection system employs a machine learning-based
classifier, which is trained with synthetically generated makeup presentation
attacks utilizing a generative adversarial network for facial makeup transfer
in conjunction with image warping. Experimental evaluations conducted using the
MIFS database reveal a detection equal error rate of 0.7% for the task of
separating genuine authentication attempts from makeup presentation attacks.
- Abstract(参考訳): 顔の化粧品は顔の外観を大きく変え、顔認識の判断に悪影響を及ぼす可能性がある。
また,メークアップ・プレゼンテーション・アタックの開始にはメークアップ・アタックの応用が悪用される可能性が示唆された。
このような攻撃においては、攻撃者は、偽装目的で対象者の顔の外観を達成するために重い化粧を施すことがある。
本研究では,Makeup induced Face Spoofing (MIFS)データベースを用いたプレゼンテーション攻撃に対するCOTS顔認識システムの脆弱性を評価する。
化粧品の提示攻撃は顔認識システムのセキュリティに深刻な影響を及ぼす可能性がある。
また,潜在的メイクアップ攻撃と対応するターゲット顔画像から得られたディープフェイス表現の違いを分析し,実際の認証の試みとを区別する攻撃検出手法を提案する。
提案する検出システムは,画像ワープと合わせて顔の化粧を伝達する生成的対向ネットワークを用いて合成生成した化粧品提示攻撃を学習する機械学習ベースの分類器を用いる。
MIFSデータベースを用いて行った実験結果から, 実際の認証の試みをメークアップ攻撃から分離する作業において, 検出誤差が0.7%であることがわかった。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - A Novel Active Solution for Two-Dimensional Face Presentation Attack
Detection [0.0]
本研究では,プレゼンテーション攻撃検出に関わる課題と解決策について,現状を考察する。
プレゼンテーションアタックは、写真、ビデオ、マスク、化粧など、生きていない顔をカメラに提示する試みである。
本稿では,既存の文献の弱点を克服する効果的な能動的提示攻撃検出手法を提案する。
論文 参考訳(メタデータ) (2022-12-14T00:30:09Z) - Is Face Recognition Safe from Realizable Attacks? [1.7214499647717132]
顔認識は生体認証の一般的な形態であり、広く使われているため、攻撃も一般的になっている。
近年の研究では、顔認識システムは攻撃に弱いことが示されており、顔の誤識別につながる可能性がある。
攻撃者は、微妙な摂動でリアルな合成顔画像を生成し、それを顔に物理的に認識し、ブラックボックスの顔認識システムに攻撃できる攻撃方式を提案する。
論文 参考訳(メタデータ) (2022-10-15T03:52:53Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Introduction to Presentation Attack Detection in Face Biometrics and
Recent Advances [21.674697346594158]
次のページでは、顔認識システムが直面する可能性のある、異なるプレゼンテーションアタックを示す。
顔認識の現状と,その展開レベル,課題について紹介する。
我々は,より単純なものからより複雑なものまで,さまざまな種類のプレゼンテーションアタック手法について検討し,その効果を検証した。
論文 参考訳(メタデータ) (2021-11-23T11:19:22Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Cosmetic-Aware Makeup Cleanser [109.41917954315784]
顔認証は、一対の顔画像が同一のアイデンティティに属するかどうかを判定することを目的としている。
最近の研究では、顔の化粧が検証性能に悪影響を及ぼすことが明らかになっている。
本稿では,異なるポーズや表情で顔の化粧を除去する意味認識型化粧清浄器(SAMC)を提案する。
論文 参考訳(メタデータ) (2020-04-20T09:18:23Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。