論文の概要: Deep Generative Attacks and Countermeasures for Data-Driven Offline
Signature Verification
- arxiv url: http://arxiv.org/abs/2312.00987v1
- Date: Sat, 2 Dec 2023 00:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 19:52:05.451777
- Title: Deep Generative Attacks and Countermeasures for Data-Driven Offline
Signature Verification
- Title(参考訳): データ駆動型オフラインシグネチャ検証のためのディープジェネレーティブアタックと対策
- Authors: An Ngo and MinhPhuong Cao and Rajesh Kumar
- Abstract要約: 本稿では,データ駆動型シグネチャ検証(DASV)におけるジェネレーティブアタックの影響について検討する。
本稿では,2つの顕著な深部生成モデル(DGM),変分オートエンコーダ(VAE),条件付き生成逆ネットワーク(CGAN)のパワーについて検討する。
本稿では,DASVに対する深層発生攻撃の効果を効果的に抑制する対策を提案する。
- 参考スコア(独自算出の注目度): 2.1741128399394594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While previous studies have explored attacks via random, simple, and skilled
forgeries, generative attacks have received limited attention in the
data-driven signature verification (DASV) process. Thus, this paper explores
the impact of generative attacks on DASV and proposes practical and
interpretable countermeasures. We investigate the power of two prominent Deep
Generative Models (DGMs), Variational Auto-encoders (VAE) and Conditional
Generative Adversarial Networks (CGAN), on their ability to generate signatures
that would successfully deceive DASV. Additionally, we evaluate the quality of
generated images using the Structural Similarity Index measure (SSIM) and use
the same to explain the attack's success. Finally, we propose countermeasures
that effectively reduce the impact of deep generative attacks on DASV.
We first generated six synthetic datasets from three benchmark
offline-signature datasets viz. CEDAR, BHSig260- Bengali, and BHSig260-Hindi
using VAE and CGAN. Then, we built baseline DASVs using Xception, ResNet152V2,
and DenseNet201. These DASVs achieved average (over the three datasets) False
Accept Rates (FARs) of 2.55%, 3.17%, and 1.06%, respectively. Then, we attacked
these baselines using the synthetic datasets. The VAE-generated signatures
increased average FARs to 10.4%, 10.1%, and 7.5%, while CGAN-generated
signatures to 32.5%, 30%, and 26.1%. The variation in the effectiveness of
attack for VAE and CGAN was investigated further and explained by a strong (rho
= -0.86) negative correlation between FARs and SSIMs. We created another set of
synthetic datasets and used the same to retrain the DASVs. The retained
baseline showed significant robustness to random, skilled, and generative
attacks as the FARs shrank to less than 1% on average. The findings underscore
the importance of studying generative attacks and potential countermeasures for
DASV.
- Abstract(参考訳): これまでの研究では、ランダムで単純で熟練した偽造品による攻撃を調査してきたが、生成的攻撃はデータ駆動署名検証(DASV)プロセスにおいて限定的に注目されている。
そこで本稿では,dasvに対する生成攻撃の影響を考察し,実用的かつ解釈可能な対策を提案する。
dasvを欺くシグネチャを生成する能力について,2つの著名なディープジェネレーションモデル(dgms),変分オートエンコーダ(vae),条件付きジェネレーションアドバーサリーネットワーク(cgan)のパワーについて検討した。
さらに,構造的類似度指標(ssim)を用いて生成画像の品質を評価し,それを用いて攻撃の成功を説明する。
最後に,DASVに対する深層発生攻撃の効果を効果的に抑制する対策を提案する。
まず,3つのベンチマークオフライン署名データセットから6つの合成データセットを生成した。
CEDAR、BHSig260-ベンガル、BHSig260-ヒンディーはVAEとCGANを使用している。
そして、Xception、ResNet152V2、DenseNet201を使ってベースラインDASVを構築しました。
これらのDASVは、それぞれ2.55%、3.17%、1.06%のFAR(False Accept Rates)を達成した。
そして,合成データセットを用いて,これらのベースラインを攻撃した。
VAEが生成した署名は平均FARが10.4%、10.1%、7.5%、CGANが生成した署名が32.5%、30%、26.1%に増加した。
VAEとCGANの攻撃効果の変動について, FARとSSIMの強い負相関(rho=-0.86)を用いて検討した。
別の合成データセットを作成し、dasvの再トレーニングに同じデータを使用しました。
FARは平均で1%未満まで縮小し, ランダム, 熟練, 生成的攻撃に対して顕著な堅牢性を示した。
dasvのジェネレーティブアタック研究の重要性と潜在的な対策が示唆されている。
関連論文リスト
- Model Stealing Attack against Graph Classification with Authenticity,
Uncertainty and Diversity [85.1927483219819]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Critical Analysis of 5G Networks Traffic Intrusion using PCA, t-SNE and
UMAP Visualization and Classifying Attacks [0.0]
最近発表された5Gトラフィックデータセットである5G-NIDDを用いて、機械学習とディープラーニングのアプローチを用いて、ネットワークトラフィックの異常を検出する。
相互情報とPCA技術を用いてデータ次元を減少させる。
マイノリティクラスの合成レコードを挿入することで、クラス不均衡を解消する。
論文 参考訳(メタデータ) (2023-12-08T06:43:19Z) - VGX: Large-Scale Sample Generation for Boosting Learning-Based Software
Vulnerability Analyses [30.65722096096949]
本稿では,高品質な脆弱性データセットを大規模に生成するための新しい手法であるVGXを提案する。
VGXは、そのような編集のパターンを使用して、特定コンテキストにおける脆弱性注入コード編集を実現する。
現場でのサンプル生産では、VGXは150,392個の脆弱なサンプルを生成し、ランダムに10%を選択して、これらのサンプルが脆弱性の検出、ローカライゼーション、修復にどの程度役立つかを評価しました。
論文 参考訳(メタデータ) (2023-10-24T01:05:00Z) - Diversity-enhancing Generative Network for Few-shot Hypothesis
Adaptation [135.80439360370556]
本稿では,FHA問題に対する多様性向上型生成ネットワーク(DEG-Net)を提案する。
カーネル独立対策(Hilbert-Schmidt independent criterion、HSIC)の助けを借りて、さまざまなラベルのないデータを生成することができる。
論文 参考訳(メタデータ) (2023-07-12T06:29:02Z) - An Open Patch Generator based Fingerprint Presentation Attack Detection
using Generative Adversarial Network [3.5558308387389626]
自動指紋認識システム(AFRS)のセンサに本物の指紋の偽造を提示することによる脅威の一つに、提示攻撃(PA)または偽造(spoofing)がある。
本稿では、GAN(Generative Adversarial Network)を用いて、提案したOpen Patch Generator(OPG)から生成されたスプーフサンプルを用いてデータセットを増強するCNNベースの手法を提案する。
96.20%、94.97%、92.90%の精度は、それぞれLivDetプロトコルのシナリオの下で、LivDet 2015、2017、2019データベースで達成されている。
論文 参考訳(メタデータ) (2023-06-06T10:52:06Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Dynamically Mitigating Data Discrepancy with Balanced Focal Loss for
Replay Attack Detection [10.851348154870852]
我々は、アンチ・スプーフィングにおいては、モデリングプロセスにおいて容易に分類されたサンプルよりも識別不能なサンプルに注意が必要であると論じている。
本研究は, サンプル自体の特性に基づいて, 損失を動的にスケールする訓練目的として, バランスの取れた焦点損失関数を活用することを提案する。
相補的な特徴により、3種類の機能しか持たない融合系は他のシステムよりも22.5%、min-tDCFが7%、EERが7%向上する。
論文 参考訳(メタデータ) (2020-06-25T17:06:47Z) - privGAN: Protecting GANs from membership inference attacks at low cost [5.735035463793008]
Generative Adversarial Networks (GAN)は、合成画像のリリースを、オリジナルのデータセットを公開せずにデータを共有するための実行可能なアプローチにした。
近年の研究では、GANモデルとその合成データを用いて、相手によるトレーニングセットメンバーシップを推測できることが示されている。
ここでは、ジェネレータが識別器を騙すだけでなく、メンバーシップ推論攻撃を防御するために訓練される新しいGANアーキテクチャ(privGAN)を開発する。
論文 参考訳(メタデータ) (2019-12-31T20:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。