論文の概要: Single Morphing Attack Detection using Siamese Network and Few-shot
Learning
- arxiv url: http://arxiv.org/abs/2206.10969v1
- Date: Wed, 22 Jun 2022 10:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 15:36:38.327889
- Title: Single Morphing Attack Detection using Siamese Network and Few-shot
Learning
- Title(参考訳): Siamese NetworkとFew-shot Learningを用いた単一モーフィング検出
- Authors: Juan Tapia, Daniel Schulz, Christoph Busch
- Abstract要約: 顔変形攻撃の検出は困難であり、顔認証システムに対する具体的かつ深刻な脅威となる。
本稿では,三重項半ハードロスを用いたシムズネットワークに基づく画像情報共有手法を提案する。
- 参考スコア(独自算出の注目度): 11.580619694289481
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Face morphing attack detection is challenging and presents a concrete and
severe threat for face verification systems. Reliable detection mechanisms for
such attacks, which have been tested with a robust cross-database protocol and
unknown morphing tools still is a research challenge. This paper proposes a
framework following the Few-Shot-Learning approach that shares image
information based on the siamese network using triplet-semi-hard-loss to tackle
the morphing attack detection and boost the clustering classification process.
This network compares a bona fide or potentially morphed image with triplets of
morphing and bona fide face images. Our results show that this new network
cluster the data points, and assigns them to classes in order to obtain a lower
equal error rate in a cross-database scenario sharing only small image numbers
from an unknown database. Few-shot learning helps to boost the learning
process. Experimental results using a cross-datasets trained with FRGCv2 and
tested with FERET and the AMSL open-access databases reduced the BPCER10 from
43% to 4.91% using ResNet50 and 5.50% for MobileNetV2.
- Abstract(参考訳): 顔変形攻撃の検出は困難であり、顔認証システムに対する具体的かつ深刻な脅威となる。
このような攻撃の信頼性の高い検出メカニズムは、堅牢なクロスデータベースプロトコルと未知のモーフィングツールでテストされている。
本稿では,シアームネットワークに基づく画像情報をトリプレット・セミハードロスを用いて共有し,モーフィングアタック検出に取り組み,クラスタリング分類プロセスを促進する,マイショット学習手法に基づく枠組みを提案する。
このネットワークは、ボナフィドまたは潜在的に変形した画像と、モルヒネのトリプレットとボナフィドの顔画像を比較する。
その結果,新しいネットワークはデータポイントをクラスタ化し,未知のデータベースから小さな画像番号のみを共有するクロスデータベースシナリオにおいて,エラー率を低くするためにクラスに割り当てる。
少ないショットの学習は、学習プロセスの促進に役立つ。
FRGCv2でトレーニングし、FERETとAMSLでテストしたクロスデータセットを使った実験結果、BPCER10はResNet50とMobileNetV2で43%から4.91%に減少した。
関連論文リスト
- Unlearn and Burn: Adversarial Machine Unlearning Requests Destroy Model Accuracy [65.80757820884476]
未学習システムのデプロイにおいて、重要で未調査の脆弱性を公開しています。
本稿では,訓練セットに存在しないデータに対して,逆学習要求を送信することにより,攻撃者がモデル精度を劣化させることができる脅威モデルを提案する。
我々は、未学習要求の正当性を検出するための様々な検証メカニズムを評価し、検証の課題を明らかにする。
論文 参考訳(メタデータ) (2024-10-12T16:47:04Z) - Joint Neural Networks for One-shot Object Recognition and Detection [5.389851588398047]
本稿では,一発物体の認識と検出に難渋する課題に対処する,新しい結合ニューラルネットワーク手法を提案する。
Siameseのニューラルネットワークと最先端のマルチボックス検出アプローチにインスパイアされたジョイントニューラルネットワークは、トレーニングプロセス中に見つからないカテゴリのオブジェクト認識と検出を行うことができる。
提案手法は,MiniImageNetデータセット上での1ショットオブジェクト認識における61.41%の精度と,データセット上でトレーニングしてテストした場合の1ショットオブジェクト検出における47.1%のmAPを実現する。
論文 参考訳(メタデータ) (2024-08-01T16:48:03Z) - Adversarial Sampling for Fairness Testing in Deep Neural Network [0.0]
与えられたデータセット内のさまざまなクラスの画像にわたるディープニューラルネットワークモデルの予測において、公正性をテストするための逆サンプリング。
我々は、元の画像でニューラルネットワークモデルを訓練し、摂動または攻撃された画像でモデルをトレーニングすることはなかった。
モデルに逆方向サンプリングを施すと、逆方向サンプルが属する画像のもともとのカテゴリ/クラスを予測することができた。
論文 参考訳(メタデータ) (2023-03-06T03:55:37Z) - Surveillance Face Anti-spoofing [81.50018853811895]
Face Anti-Spoofing (FAS) は、様々な物理的攻撃から顔認識システムを保護するために不可欠である。
本稿では,画像品質による性能劣化を軽減するために,コントラスト品質不変学習(CQIL)ネットワークを提案する。
多くの実験がSuHiFiMaskデータセットの品質と提案したCQILの優位性を検証する。
論文 参考訳(メタデータ) (2023-01-03T07:09:57Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - Towards robustness under occlusion for face recognition [0.0]
本稿では,ResNetのバックボーンを用いた顔認識パイプラインの性能に及ぼすオクルージョンの影響を評価する。
入力画像に適用した8種類のオクルージョンマスクを設計した。
閉塞下でのロバスト性を高めるために,我々は2つのアプローチを踏襲した。
2つ目はCutmixで、長方形のパッチを使ってトレーニング画像とラベルを混ぜる正規化戦略である。
論文 参考訳(メタデータ) (2021-09-19T08:27:57Z) - Generalized Iris Presentation Attack Detection Algorithm under
Cross-Database Settings [63.90855798947425]
プレゼンテーションアタックは、バイオメトリックなモダリティの大部分に大きな課題をもたらす。
本稿では,汎用的な深層学習に基づくプレゼンテーション攻撃検出ネットワークであるMVANetを提案する。
これはハイブリッドアルゴリズムの単純さと成功、あるいは複数の検出ネットワークの融合にインスパイアされている。
論文 参考訳(メタデータ) (2020-10-25T22:42:27Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Deep convolutional neural networks for face and iris presentation attack
detection: Survey and case study [0.5801044612920815]
顔PADのクロスデータセット評価は,術式よりも一般化が良好であった。
顔と虹彩の両方の攻撃を検出するために訓練された1つのディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-25T02:06:19Z) - Suppressing Uncertainties for Large-Scale Facial Expression Recognition [81.51495681011404]
本稿では,不確実性を効果的に抑制し,深層ネットワークが不確実な顔画像に過度に収まらないような,シンプルで効率的なセルフキュアネットワーク(SCN)を提案する。
公開ベンチマークの結果、我々のSCNは現在の最先端メソッドよりも、RAF-DBで textbf88.14%、AffectNetで textbf60.23%、FERPlusで textbf89.35% を上回りました。
論文 参考訳(メタデータ) (2020-02-24T17:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。