論文の概要: On the (Limited) Generalization of MasterFace Attacks and Its Relation
to the Capacity of Face Representations
- arxiv url: http://arxiv.org/abs/2203.12387v1
- Date: Wed, 23 Mar 2022 13:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 22:02:48.074419
- Title: On the (Limited) Generalization of MasterFace Attacks and Its Relation
to the Capacity of Face Representations
- Title(参考訳): MasterFace攻撃の(制限された)一般化と顔表現能力との関係について
- Authors: Philipp Terh\"orst, Florian Bierbaum, Marco Huber, Naser Damer,
Florian Kirchbuchner, Kiran Raja, Arjan Kuijper
- Abstract要約: 実験および理論的研究におけるMasterFace攻撃の一般化可能性について検討する。
顔空間のアイデンティティが適切に分離されていると仮定して、顔容量と最大MasterFaceカバレッジを推定する。
MasterFacesは顔認識システムに対する脅威ではなく、顔認識モデルの堅牢性を高めるツールである、と結論付けている。
- 参考スコア(独自算出の注目度): 11.924504853735645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A MasterFace is a face image that can successfully match against a large
portion of the population. Since their generation does not require access to
the information of the enrolled subjects, MasterFace attacks represent a
potential security risk for widely-used face recognition systems. Previous
works proposed methods for generating such images and demonstrated that these
attacks can strongly compromise face recognition. However, previous works
followed evaluation settings consisting of older recognition models, limited
cross-dataset and cross-model evaluations, and the use of low-scale testing
data. This makes it hard to state the generalizability of these attacks. In
this work, we comprehensively analyse the generalizability of MasterFace
attacks in empirical and theoretical investigations. The empirical
investigations include the use of six state-of-the-art FR models, cross-dataset
and cross-model evaluation protocols, and utilizing testing datasets of
significantly higher size and variance. The results indicate a low
generalizability when MasterFaces are training on a different face recognition
model than the one used for testing. In these cases, the attack performance is
similar to zero-effort imposter attacks. In the theoretical investigations, we
define and estimate the face capacity and the maximum MasterFace coverage under
the assumption that identities in the face space are well separated. The
current trend of increasing the fairness and generalizability in face
recognition indicates that the vulnerability of future systems might further
decrease. We conclude that MasterFaces should not be seen as a threat to face
recognition systems but, on the contrary, seen as a tool to understand and
enhance the robustness of face recognition models.
- Abstract(参考訳): マスターフェイス(masterface)は、人口の大部分とうまくマッチする顔画像である。
彼らの世代は登録した被験者の情報にアクセスする必要がないので、MasterFace攻撃は広く使われている顔認識システムに対する潜在的なセキュリティリスクを表す。
先行研究は、このような画像を生成する手法を提案し、これらの攻撃が顔認識を損なうことを実証した。
しかし、以前の研究は、古い認識モデル、限られたクロスデータセットとクロスモデル評価、低スケールなテストデータの使用からなる評価設定に従っていた。
これにより、これらの攻撃の一般化性を記述するのが困難になる。
本研究では,経験的および理論的研究におけるMasterFace攻撃の一般化可能性について包括的に分析する。
実証的な調査には、6つの最先端frモデル、クロスデータセットとクロスモデル評価プロトコルの使用、そしてかなり大きなサイズと分散のテストデータセットの利用が含まれる。
その結果、MasterFacesがテストで使用するものと異なる顔認識モデルでトレーニングしている場合、一般化性が低いことが示された。
これらの場合、攻撃性能はゼロ・エフォート・インポスター攻撃に似ている。
理論的研究では,顔空間のアイデンティティが十分に分離されていると仮定して,顔容量と最大MasterFaceカバレッジを定義し,推定する。
顔認証の公平性と一般化性を高める最近の傾向は、将来のシステムの脆弱性がさらに減少する可能性を示唆している。
MasterFacesは顔認識システムに対する脅威とみなすべきではないが、それとは対照的に、顔認識モデルの堅牢性を理解し、強化するためのツールと見なされる。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Real Face Foundation Representation Learning for Generalized Deepfake
Detection [74.4691295738097]
ディープフェイク技術の出現は、個人のプライバシーと公共の安全に脅威をもたらすため、社会的な問題となっている。
十分な偽の顔を集めることはほぼ不可能であり、既存の検出器があらゆる種類の操作に一般化することは困難である。
本稿では,大規模な実顔データセットから一般表現を学習することを目的としたリアルフェイスファウンデーション表現学習(RFFR)を提案する。
論文 参考訳(メタデータ) (2023-03-15T08:27:56Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - Master Face Attacks on Face Recognition Systems [45.090037010778765]
顔認証は、個人認証番号やアンロックパターンを使った認証よりも、特にモバイルデバイスで広く使われている。
これまでの研究は、顔認識システム内の複数の登録テンプレートにマッチするマスターフェイスの存在を証明してきた。
本稿では,マスタ顔の生成によく用いられる潜在変数進化(LVE)について広範な研究を行う。
論文 参考訳(メタデータ) (2021-09-08T02:11:35Z) - MagFace: A Universal Representation for Face Recognition and Quality
Assessment [6.7044749347155035]
本論文では,与えられた顔の質を測ることができる普遍的特徴埋め込みを学習する損失のカテゴリであるMagFaceを提案する。
新しい損失の下では、主題が認識される可能性が高い場合、単調に埋め込み機能の大きさが増加することが証明できます。
さらに、MagFaceは、ハードサンプルを押しながら簡単にサンプルをクラスセンターに引っ張ることで、クラス内の機能を学ぶための適応メカニズムを導入している。
論文 参考訳(メタデータ) (2021-03-11T11:58:21Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Generating Master Faces for Use in Performing Wolf Attacks on Face
Recognition Systems [40.59670229362299]
顔認証はますます主流になり、攻撃者にとって主要なターゲットとなっている。
これまでの研究では、指紋認証と指紋認証はオオカミの攻撃の影響を受けやすいことが示されている。
我々は最先端の顔生成器であるStyleGANを用いて高品質な顔を生成する。
論文 参考訳(メタデータ) (2020-06-15T12:59:49Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。