論文の概要: Robust Ensemble Morph Detection with Domain Generalization
- arxiv url: http://arxiv.org/abs/2209.08130v1
- Date: Fri, 16 Sep 2022 19:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 17:42:44.096114
- Title: Robust Ensemble Morph Detection with Domain Generalization
- Title(参考訳): 領域一般化によるロバストアンサンブル形態検出
- Authors: Hossein Kashiani, Shoaib Meraj Sami, Sobhan Soleymani, Nasser M.
Nasrabadi
- Abstract要約: 我々は,多種多様な形態素攻撃への高一般化と,異なる敵攻撃に対する強靭性を有する形態素検出モデルを学習する。
本研究の目的は,畳み込みニューラルネットワーク(CNN)とトランスフォーマーモデルのアンサンブルを同時に構築することである。
提案したロバストアンサンブルモデルがいくつかのモーフィング攻撃や顔データセットに一般化されることを示す。
- 参考スコア(独自算出の注目度): 23.026167387128933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although a substantial amount of studies is dedicated to morph detection,
most of them fail to generalize for morph faces outside of their training
paradigm. Moreover, recent morph detection methods are highly vulnerable to
adversarial attacks. In this paper, we intend to learn a morph detection model
with high generalization to a wide range of morphing attacks and high
robustness against different adversarial attacks. To this aim, we develop an
ensemble of convolutional neural networks (CNNs) and Transformer models to
benefit from their capabilities simultaneously. To improve the robust accuracy
of the ensemble model, we employ multi-perturbation adversarial training and
generate adversarial examples with high transferability for several single
models. Our exhaustive evaluations demonstrate that the proposed robust
ensemble model generalizes to several morphing attacks and face datasets. In
addition, we validate that our robust ensemble model gain better robustness
against several adversarial attacks while outperforming the state-of-the-art
studies.
- Abstract(参考訳): 形態検出に関するかなりの研究は行われているが、ほとんどの研究はトレーニングパラダイム以外の形態検出の一般化に失敗している。
さらに、最近の形態検出法は敵攻撃に対して非常に脆弱である。
本稿では,多岐にわたる形態素攻撃への高一般化と,異なる敵攻撃に対する強靭性を有する形態素検出モデルを学習する。
そこで本研究では,畳み込みニューラルネットワーク(cnns)とトランスフォーマーモデルの組合わせを開発し,その能力の恩恵を受ける。
アンサンブルモデルのロバストな精度を向上させるために,マルチ摂動対向トレーニングを採用し,複数の単一モデルに対して高い伝達性を持つ対向例を生成する。
提案するロバストアンサンブルモデルが複数のモーフィング攻撃や顔データセットに一般化することを示す。
さらに,我々のロバストアンサンブルモデルが,最先端の研究を上回りつつ,いくつかの敵の攻撃に対してより強固になることを確認した。
関連論文リスト
- On Evaluating Adversarial Robustness of Volumetric Medical Segmentation Models [59.45628259925441]
体積医学セグメンテーションモデルは、臓器および腫瘍ベースのセグメンテーションタスクにおいて大きな成功を収めた。
敵の攻撃に対するその脆弱性はほとんど解明されていない。
このことは、既存のモデルの堅牢性を調べることの重要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-06-12T17:59:42Z) - Approximating Optimal Morphing Attacks using Template Inversion [4.0361765428523135]
我々は,理論的最適形態埋め込みの反転に基づく新しいタイプのディープ・モーフィング・アタックを開発した。
我々は複数の情報源からモーフィング攻撃を生成し、複数の顔認識ネットワークに対する攻撃の有効性について検討する。
論文 参考訳(メタデータ) (2024-02-01T15:51:46Z) - Towards Generalizable Morph Attack Detection with Consistency
Regularization [12.129404936688752]
一般化可能なモルヒネ攻撃検出は注目されている。
現実的な形態変換の広い空間を探索するために、単純で効果的な2つのモルヒネ拡張法が提案されている。
提案した一貫性の規則化は、モーフィック・アタック・イメージにまたがって、モデルの隠れたレイヤの抽象化を整列させる。
論文 参考訳(メタデータ) (2023-08-20T23:50:22Z) - Face Morphing Attack Detection with Denoising Diffusion Probabilistic
Models [0.0]
モールフされた顔画像は、様々な悪意のある目的のために誰かの身元を偽装するために使用することができる。
既存のMAD技術は、ボナフィドやモルフィド画像の例から学ぶ識別モデルに依存している。
本研究では,ボナファイド画像の特徴からのみ学習できる新しい拡散型MAD法を提案する。
論文 参考訳(メタデータ) (2023-06-27T18:19:45Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Robustness and Generalization via Generative Adversarial Training [21.946687274313177]
本稿では,テストセットとドメイン外サンプルに対するモデルの一般化を同時に改善する手法であるジェネレーティブ・アドバイサル・トレーニングを提案する。
提案手法は、クリーンな画像やドメイン外サンプルのモデルの性能を向上させるだけでなく、予期せぬ攻撃に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2021-09-06T22:34:04Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Voting based ensemble improves robustness of defensive models [82.70303474487105]
我々は、より堅牢性を高めるためのアンサンブルを作ることができるかどうか研究する。
最先端の先制防衛モデルを複数組み合わせることで,59.8%の堅牢な精度を達成できる。
論文 参考訳(メタデータ) (2020-11-28T00:08:45Z) - Certifying Joint Adversarial Robustness for Model Ensembles [10.203602318836445]
ディープニューラルネットワーク(DNN)は、しばしば敵の例に対して脆弱である。
提案された防御は、個々のモデルが脆弱であるとしても、敵がアンサンブルに対して成功する敵の例を見つけることができないことを期待して、モデルのアンサンブルを展開させる。
モデルアンサンブルのジョイント脆弱性を考察し,アンサンブルのジョイントロバスト性を証明する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T19:38:31Z) - Regularizers for Single-step Adversarial Training [49.65499307547198]
本稿では,1ステップの対数学習手法を用いて,ロバストモデル学習を支援する3種類の正則化器を提案する。
正規化器は、ロバストモデルと擬ロバストモデルとを区別する特性を利用することにより、勾配マスキングの効果を緩和する。
論文 参考訳(メタデータ) (2020-02-03T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。