論文の概要: Optimizing Key-Selection for Face-based One-Time Biometrics via Morphing
- arxiv url: http://arxiv.org/abs/2310.02997v1
- Date: Wed, 4 Oct 2023 17:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 13:41:05.821722
- Title: Optimizing Key-Selection for Face-based One-Time Biometrics via Morphing
- Title(参考訳): モーフィングによる顔型ワンタイムバイオメトリックスのキー選択の最適化
- Authors: Daile Osorio-Roig, Mahdi Ghafourian, Christian Rathgeb, Ruben
Vera-Rodriguez, Christoph Busch, Julian Fierrez
- Abstract要約: 顔認識システムはいまだに敵の攻撃に弱い。
本稿では,競争力のあるキャンセル可能なスキームの安全性を向上させるために,異なる鍵選択手法を提案する。
- 参考スコア(独自算出の注目度): 10.057840103622766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, facial recognition systems are still vulnerable to adversarial
attacks. These attacks vary from simple perturbations of the input image to
modifying the parameters of the recognition model to impersonate an authorised
subject. So-called privacy-enhancing facial recognition systems have been
mostly developed to provide protection of stored biometric reference data, i.e.
templates. In the literature, privacy-enhancing facial recognition approaches
have focused solely on conventional security threats at the template level,
ignoring the growing concern related to adversarial attacks. Up to now, few
works have provided mechanisms to protect face recognition against adversarial
attacks while maintaining high security at the template level. In this paper,
we propose different key selection strategies to improve the security of a
competitive cancelable scheme operating at the signal level. Experimental
results show that certain strategies based on signal-level key selection can
lead to complete blocking of the adversarial attack based on an iterative
optimization for the most secure threshold, while for the most practical
threshold, the attack success chance can be decreased to approximately 5.0%.
- Abstract(参考訳): 現在、顔認識システムは相反する攻撃に対して脆弱である。
これらの攻撃は入力画像の単純な摂動から認識モデルのパラメータの変更まで様々で、認証対象を偽装する。
いわゆるプライバシエンハンシング顔認識システムは、主に、保存された生体認証参照データ、すなわちテンプレートを保護するために開発された。
文献では、プライバシを高める顔認識アプローチは、従来のセキュリティ脅威をテンプレートレベルでのみ重視しており、敵の攻撃に関する懸念が高まっている。
これまで、テンプレートレベルで高いセキュリティを維持しながら、敵の攻撃に対して顔認識を保護するメカニズムを提供する研究はほとんどなかった。
本稿では,信号レベルでの競合キャンセル方式の安全性を向上させるために,異なる鍵選択戦略を提案する。
実験結果から,信号レベルの鍵選択に基づく特定の戦略が,最も安全なしきい値に対する反復最適化に基づく敵攻撃の完全遮断につながることが示されたが,最も実用的なしきい値の場合,攻撃成功確率は約5.0%に低下する。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Resurrecting Trust in Facial Recognition: Mitigating Backdoor Attacks in
Face Recognition to Prevent Potential Privacy Breaches [7.436067208838344]
深層学習は顔認識(FR)に広く利用されている
しかし、そのようなモデルは悪意のある当事者によって実行されるバックドア攻撃に対して脆弱である。
BA-BAM: Biometric Authentication - Backdoor Attack Mitigationを提案する。
論文 参考訳(メタデータ) (2022-02-18T13:53:55Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - On the Effectiveness of Vision Transformers for Zero-shot Face
Anti-Spoofing [7.665392786787577]
本研究では、ゼロショットアンチスプーフィングタスクにおいて、視覚変換器モデルからの伝達学習を用いる。
提案手法は、HQ-WMCAおよびSiW-Mデータセットにおけるゼロショットプロトコルにおける最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-11-16T15:14:59Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。