論文の概要: SelfMAD: Enhancing Generalization and Robustness in Morphing Attack Detection via Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2504.05504v1
- Date: Mon, 07 Apr 2025 21:03:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:03.221102
- Title: SelfMAD: Enhancing Generalization and Robustness in Morphing Attack Detection via Self-Supervised Learning
- Title(参考訳): SelfMAD:自己監視学習によるモーフィング攻撃検出における一般化とロバスト性の向上
- Authors: Marija Ivanovska, Leon Todorov, Naser Damer, Deepak Kumar Jain, Peter Peer, Vitomir Štruc,
- Abstract要約: SelfMADは、一般的な攻撃アーティファクトをシミュレートする、新しい自己教師型アプローチである。
現状のMADよりも,SelfMADの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 8.554461485466936
- License:
- Abstract: With the continuous advancement of generative models, face morphing attacks have become a significant challenge for existing face verification systems due to their potential use in identity fraud and other malicious activities. Contemporary Morphing Attack Detection (MAD) approaches frequently rely on supervised, discriminative models trained on examples of bona fide and morphed images. These models typically perform well with morphs generated with techniques seen during training, but often lead to sub-optimal performance when subjected to novel unseen morphing techniques. While unsupervised models have been shown to perform better in terms of generalizability, they typically result in higher error rates, as they struggle to effectively capture features of subtle artifacts. To address these shortcomings, we present SelfMAD, a novel self-supervised approach that simulates general morphing attack artifacts, allowing classifiers to learn generic and robust decision boundaries without overfitting to the specific artifacts induced by particular face morphing methods. Through extensive experiments on widely used datasets, we demonstrate that SelfMAD significantly outperforms current state-of-the-art MADs, reducing the detection error by more than 64% in terms of EER when compared to the strongest unsupervised competitor, and by more than 66%, when compared to the best performing discriminative MAD model, tested in cross-morph settings. The source code for SelfMAD is available at https://github.com/LeonTodorov/SelfMAD.
- Abstract(参考訳): 生成モデルの継続的な進歩により、顔認識攻撃は、身元認証詐欺やその他の悪意ある活動に利用される可能性があるため、既存の顔認証システムにとって重要な課題となっている。
現代のモルフィング攻撃検出(MAD)アプローチは、しばしば、ボナフィドやモルヒド画像の例に基づいて訓練された教師付き識別モデルに依存している。
これらのモデルは通常、トレーニング中に見られるテクニックで生成された形態でうまく機能するが、新しい未知のモーフィング技術に従えば、しばしば準最適パフォーマンスにつながる。
教師なしモデルは、一般化可能性の観点からはより良い性能を示すことが示されているが、それらは典型的には、微妙なアーティファクトの特徴を効果的に捉えるのに苦労するため、より高いエラー率をもたらす。
これらの欠点に対処するため, 顔形態形成法によって引き起こされる特定の人工物に過度に適合することなく, 分類器が汎用的かつ堅牢な決定境界を学習できるようにする, 汎用的な形態形成攻撃アーティファクトをシミュレートする新たな自己教師型アプローチであるSelfMADを提案する。
広範に使われているデータセットに対する広範な実験により、SelfMADは最先端のMADよりも大幅に優れており、EERにおいて最強の非教師付き競合相手と比較して64%以上、クロスモーフィック環境でテストされた最高の差別的MADモデルと比較して66%以上、検出誤差が減少することを示した。
SelfMADのソースコードはhttps://github.com/LeonTodorov/SelfMADで公開されている。
関連論文リスト
- Evaluating the Effectiveness of Attack-Agnostic Features for Morphing Attack Detection [20.67964977754179]
モーフィング攻撃検出(MAD)における画像表現の可能性について検討する。
ガウス混合モデル(GMM)によるボナフィド特性の分布をモデル化し,抽出した特徴量と一級検出値に基づいて単純な2次線形SVMを訓練し,教師付き検出器を開発する。
以上の結果から,攻撃非依存の特徴は,ほとんどのシナリオにおいて従来の教師付き・一級検知器よりも優れた形態的攻撃を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2024-10-22T08:27:43Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - DMAD: Dual Memory Bank for Real-World Anomaly Detection [90.97573828481832]
我々は、DMAD(Anomaly Detection)のための表現学習を強化したDual Memory Bankという新しいフレームワークを提案する。
DMADはデュアルメモリバンクを用いて特徴距離を計算し、正常パターンと異常パターンの間の特徴注意を計算している。
DMADをMVTec-ADおよびVisAデータセット上で評価した。
論文 参考訳(メタデータ) (2024-03-19T02:16:32Z) - AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model [59.08735812631131]
製造業において異常検査が重要な役割を担っている。
既存の異常検査手法は、異常データが不足しているため、その性能に制限がある。
本稿では,新しい拡散型マイクロショット異常生成モデルであるAnomalyDiffusionを提案する。
論文 参考訳(メタデータ) (2023-12-10T05:13:40Z) - Face Morphing Attack Detection with Denoising Diffusion Probabilistic
Models [0.0]
モールフされた顔画像は、様々な悪意のある目的のために誰かの身元を偽装するために使用することができる。
既存のMAD技術は、ボナフィドやモルフィド画像の例から学ぶ識別モデルに依存している。
本研究では,ボナファイド画像の特徴からのみ学習できる新しい拡散型MAD法を提案する。
論文 参考訳(メタデータ) (2023-06-27T18:19:45Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Fusion-based Few-Shot Morphing Attack Detection and Fingerprinting [37.161842673434705]
顔認識システムは、モーフィング攻撃に弱い。
既存のモーフィング攻撃検出手法の多くは、大量のトレーニングデータを必要としており、いくつかの事前定義された攻撃モデルでのみテストされている。
我々は,MADを教師付き学習から少数ショット学習へ,バイナリ検出からマルチクラスフィンガープリントへ拡張することを提案する。
論文 参考訳(メタデータ) (2022-10-27T14:46:53Z) - Robust Ensemble Morph Detection with Domain Generalization [23.026167387128933]
我々は,多種多様な形態素攻撃への高一般化と,異なる敵攻撃に対する強靭性を有する形態素検出モデルを学習する。
本研究の目的は,畳み込みニューラルネットワーク(CNN)とトランスフォーマーモデルのアンサンブルを同時に構築することである。
提案したロバストアンサンブルモデルがいくつかのモーフィング攻撃や顔データセットに一般化されることを示す。
論文 参考訳(メタデータ) (2022-09-16T19:00:57Z) - ReGenMorph: Visibly Realistic GAN Generated Face Morphing Attacks by
Attack Re-generation [7.169807933149473]
この研究は、新しいモーフィングパイプラインであるReGenMorphを示し、GANベースの世代を用いてLMAブレンディングアーティファクトを除去する。
生成したReGenMorphの外観は、最近のモーフィング手法と比較され、顔認識の脆弱性と攻撃検出性を評価する。
論文 参考訳(メタデータ) (2021-08-20T11:55:46Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。