論文の概要: MADation: Face Morphing Attack Detection with Foundation Models
- arxiv url: http://arxiv.org/abs/2501.03800v1
- Date: Tue, 07 Jan 2025 14:06:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:57.540052
- Title: MADation: Face Morphing Attack Detection with Foundation Models
- Title(参考訳): MADation:基礎モデルを用いた顔形態検出
- Authors: Eduarda Caldeira, Guray Ozgur, Tahar Chettaoui, Marija Ivanovska, Fadi Boutros, Vitomir Struc, Naser Damer,
- Abstract要約: モーフィング攻撃検知システムは、特定の種類の脅威、モーフィング攻撃を早期に検出することを目的としている。
ファンデーションモデル(FM)は、膨大な量のラベルのないデータから学習し、目に見えない領域に顕著なゼロショットの一般化を達成する。
本研究では,その特異性に適切に適応した場合に,FMがMADタスクで良好に機能する可能性を認識する。
- 参考スコア(独自算出の注目度): 8.618968374145298
- License:
- Abstract: Despite the considerable performance improvements of face recognition algorithms in recent years, the same scientific advances responsible for this progress can also be used to create efficient ways to attack them, posing a threat to their secure deployment. Morphing attack detection (MAD) systems aim to detect a specific type of threat, morphing attacks, at an early stage, preventing them from being considered for verification in critical processes. Foundation models (FM) learn from extensive amounts of unlabeled data, achieving remarkable zero-shot generalization to unseen domains. Although this generalization capacity might be weak when dealing with domain-specific downstream tasks such as MAD, FMs can easily adapt to these settings while retaining the built-in knowledge acquired during pre-training. In this work, we recognize the potential of FMs to perform well in the MAD task when properly adapted to its specificities. To this end, we adapt FM CLIP architectures with LoRA weights while simultaneously training a classification header. The proposed framework, MADation surpasses our alternative FM and transformer-based frameworks and constitutes the first adaption of FMs to the MAD task. MADation presents competitive results with current MAD solutions in the literature and even surpasses them in several evaluation scenarios. To encourage reproducibility and facilitate further research in MAD, we publicly release the implementation of MADation at https: //github.com/gurayozgur/MADation
- Abstract(参考訳): 近年の顔認識アルゴリズムの性能向上にもかかわらず、この進歩に責任を負う科学的進歩は、それらを効果的に攻撃する方法を作るためにも利用でき、安全な展開を脅かす。
モルフィング攻撃検出(MAD)システムは、特定の種類の脅威、モルフィング攻撃を早期に検出することを目的としており、臨界過程における検証として考慮されない。
ファンデーションモデル(FM)は、膨大な量のラベルのないデータから学習し、目に見えない領域に顕著なゼロショットの一般化を達成する。
この一般化能力は、MADのようなドメイン固有の下流タスクを扱う際には弱いかもしれないが、FMは事前トレーニング中に取得した知識を維持しながら、これらの設定に容易に適応できる。
本研究では,その特異性に適切に適応した場合に,FMがMADタスクで良好に機能する可能性を認識する。
この目的のために,分類ヘッダを同時にトレーニングしながら,FM CLIP アーキテクチャを LoRA 重み付きで適用する。
提案するフレームワークであるMADationは、代替のFMおよびトランスフォーマーベースのフレームワークを超越し、MADタスクへのFMの最初の適応を構成する。
MADationは、文学における現在のMADソリューションと競合する結果を提示し、いくつかの評価シナリオにおいてそれらを上回っている。
MADの再現性を奨励し、さらなる研究を促進するため、https: //github.com/gurayozgur/MADationでMADationの実装を一般公開する。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Enhancing Transferability of Adversarial Attacks with GE-AdvGAN+: A Comprehensive Framework for Gradient Editing [12.131163373757383]
転送可能な敵攻撃は、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では、GE-AdvGAN+という、勾配編集に基づく転送可能な攻撃のための新しいフレームワークを提案する。
我々のフレームワークは、ほとんどすべての主流攻撃手法を統合し、転送可能性を高めながら、計算資源の消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-08-22T18:26:31Z) - Bringing Masked Autoencoders Explicit Contrastive Properties for Point Cloud Self-Supervised Learning [116.75939193785143]
画像領域における視覚変換器(ViT)のコントラスト学習(CL)は、従来の畳み込みバックボーンのCLに匹敵する性能を達成した。
ViTで事前訓練した3Dポイントクラウドでは、マスク付きオートエンコーダ(MAE)モデリングが主流である。
論文 参考訳(メタデータ) (2024-07-08T12:28:56Z) - DMAD: Dual Memory Bank for Real-World Anomaly Detection [90.97573828481832]
我々は、DMAD(Anomaly Detection)のための表現学習を強化したDual Memory Bankという新しいフレームワークを提案する。
DMADはデュアルメモリバンクを用いて特徴距離を計算し、正常パターンと異常パターンの間の特徴注意を計算している。
DMADをMVTec-ADおよびVisAデータセット上で評価した。
論文 参考訳(メタデータ) (2024-03-19T02:16:32Z) - On Catastrophic Inheritance of Large Foundation Models [51.41727422011327]
大ファンデーションモデル(LFM)は素晴らしいパフォーマンスを誇示している。しかし、彼らの神話的および解釈されていないポテンシャルについて大きな懸念が持ち上がっている。
我々は, LFMに深く根ざした「破滅的継承」という, 無視された問題を特定することを提案する。
この問題の背景にある課題を議論し、事前学習と下流適応の両方からLFMの破滅的な継承を理解するためのフレームワークであるUIMを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:21:55Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - T-MAE: Temporal Masked Autoencoders for Point Cloud Representation Learning [22.002220932086693]
本稿では,T-MAE (Temporal Masked Auto-Encoders) という,効果的な事前学習戦略を提案する。
T-MAEは、時間的隣接フレームとして入力を受け取り、時間的依存を学習する。
我々のT-MAE事前学習戦略は、注釈付きデータに対する需要を軽減する。
論文 参考訳(メタデータ) (2023-12-15T21:30:49Z) - A Generative Framework for Low-Cost Result Validation of Machine Learning-as-a-Service Inference [4.478182379059458]
FidesはML-as-a-Service(ML)推論のリアルタイム整合性検証のための新しいフレームワークである。
Fidesは、統計的分析とばらつき測定を使用して、サービスモデルが攻撃を受けている場合、高い確率で識別するクライアント側攻撃検出モデルを備えている。
攻撃検出と再分類モデルの訓練のための生成的逆ネットワークフレームワークを考案した。
論文 参考訳(メタデータ) (2023-03-31T19:17:30Z) - Fusion-based Few-Shot Morphing Attack Detection and Fingerprinting [37.161842673434705]
顔認識システムは、モーフィング攻撃に弱い。
既存のモーフィング攻撃検出手法の多くは、大量のトレーニングデータを必要としており、いくつかの事前定義された攻撃モデルでのみテストされている。
我々は,MADを教師付き学習から少数ショット学習へ,バイナリ検出からマルチクラスフィンガープリントへ拡張することを提案する。
論文 参考訳(メタデータ) (2022-10-27T14:46:53Z) - Unsupervised Face Morphing Attack Detection via Self-paced Anomaly
Detection [8.981081097203088]
SPL-MAD(Self-paced Anomaly Detection)による全く教師なしのモーフィング攻撃検出ソリューションを提案する。
我々は、既存の大規模顔認識(FR)データセットと、畳み込みオートエンコーダの教師なしの性質を活用している。
実験の結果,提案したSPL-MADソリューションは広範囲の教師付きMADソリューションの全体的な性能より優れていた。
論文 参考訳(メタデータ) (2022-08-11T12:21:50Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。