論文の概要: MorphGuard: Morph Specific Margin Loss for Enhancing Robustness to Face Morphing Attacks
- arxiv url: http://arxiv.org/abs/2505.10497v1
- Date: Thu, 15 May 2025 17:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.430523
- Title: MorphGuard: Morph Specific Margin Loss for Enhancing Robustness to Face Morphing Attacks
- Title(参考訳): MorphGuard:Morph specific Margin Loss for Enhancing Robustness to Face Morphing Attacks
- Authors: Iurii Medvedev, Nuno Goncalves,
- Abstract要約: 本研究では,顔形態攻撃に対する堅牢性を高めた顔認識のためのディープネットワークのトレーニング手法を提案する。
本手法は,顔形態のラベル付けにおけるあいまいさを効果的に扱える二重ブランチ分類戦略を導入することにより,分類タスクを修飾する。
当社の戦略は,顔形態攻撃に対する堅牢性を向上する上での有効性を実証し,公開ベンチマークで検証されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face recognition has evolved significantly with the advancement of deep learning techniques, enabling its widespread adoption in various applications requiring secure authentication. However, this progress has also increased its exposure to presentation attacks, including face morphing, which poses a serious security threat by allowing one identity to impersonate another. Therefore, modern face recognition systems must be robust against such attacks. In this work, we propose a novel approach for training deep networks for face recognition with enhanced robustness to face morphing attacks. Our method modifies the classification task by introducing a dual-branch classification strategy that effectively handles the ambiguity in the labeling of face morphs. This adaptation allows the model to incorporate morph images into the training process, improving its ability to distinguish them from bona fide samples. Our strategy has been validated on public benchmarks, demonstrating its effectiveness in enhancing robustness against face morphing attacks. Furthermore, our approach is universally applicable and can be integrated into existing face recognition training pipelines to improve classification-based recognition methods.
- Abstract(参考訳): 顔認識はディープラーニング技術の進歩によって大きく進歩し、セキュアな認証を必要とする様々なアプリケーションに広く採用されている。
しかし、この進歩は、顔のフォーミングを含むプレゼンテーション攻撃への露出も増加しており、あるアイデンティティが別のIDを偽造することを許すことで、深刻なセキュリティ上の脅威を引き起こしている。
したがって、現代の顔認識システムはこのような攻撃に対して堅牢でなければならない。
本研究では,顔形態攻撃に対する堅牢性を高めた顔認識のためのディープネットワークのトレーニング手法を提案する。
本手法は,顔形態のラベル付けにおけるあいまいさを効果的に扱える二重ブランチ分類戦略を導入することにより,分類タスクを修飾する。
この適応により、モデルはモルヒネのイメージをトレーニングプロセスに組み込むことができ、ボナファイドのサンプルと区別する能力を向上させることができる。
当社の戦略は,顔形態攻撃に対する堅牢性を向上する上での有効性を実証し,公開ベンチマークで検証されている。
さらに,本手法は広く適用可能であり,既存の顔認識訓練パイプラインに統合して,分類に基づく認識方法を改善することができる。
関連論文リスト
- LADIMO: Face Morph Generation through Biometric Template Inversion with Latent Diffusion [5.602947425285195]
顔改ざん攻撃は、顔認識システムに深刻なセキュリティ脅威をもたらす。
本稿では,2つの顔認識の埋め込みにおいて,表現レベルの顔形態形成手法であるLADIMOを提案する。
顔形態変種は個々の攻撃成功率を持ち、形態的攻撃ポテンシャルを最大化できることを示す。
論文 参考訳(メタデータ) (2024-10-10T14:41:37Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Quadruplet Loss For Improving the Robustness to Face Morphing Attacks [0.0]
顔認識システムは高度な攻撃に弱い。
本研究では, 顔認証システムのフォーミング攻撃に対するロバスト性を高めるために, 新たな四重項損失関数を導入する。
論文 参考訳(メタデータ) (2024-02-22T16:10:39Z) - TetraLoss: Improving the Robustness of Face Recognition against Morphing Attacks [6.492755549391469]
顔認識システムは、高セキュリティアプリケーションに広くデプロイされている。
フェースモーフィングのようなデジタル操作は、顔認識システムにセキュリティ上の脅威をもたらす。
本稿では,ディープラーニングに基づく顔認識システムを,顔形態攻撃に対してより堅牢なものにするための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-21T21:04:05Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - MorDeephy: Face Morphing Detection Via Fused Classification [0.0]
単一画像顔形態検出のための新しい深層学習手法を提案する。
深層顔の特徴を学習し、これらの特徴の真正性に関する情報を伝達する。
提案手法はMorDeephyと呼ばれ,その技術性能を達成し,未知のシナリオに変形検出を行うタスクを一般化する顕著な能力を示した。
論文 参考訳(メタデータ) (2022-08-05T11:39:22Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。