論文の概要: Robotic and Generative Adversarial Attacks in Offline Writer-independent
Signature Verification
- arxiv url: http://arxiv.org/abs/2204.07246v1
- Date: Thu, 14 Apr 2022 22:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 01:35:48.113322
- Title: Robotic and Generative Adversarial Attacks in Offline Writer-independent
Signature Verification
- Title(参考訳): オフラインライタ非依存シグネチャ検証におけるロボット攻撃と生成攻撃
- Authors: Jordan J. Bird
- Abstract要約: 本研究では,ロボットと生成的アプローチを用いて,署名検証システムに対する偽受容攻撃を成功させる方法について検討する。
モデルチューニングにより,ロボットによる攻撃のリスクを8%と12%に低減し,25枚の画像が提示された場合,条件付き生成的敵攻撃を4%に削減できることがわかった。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores how robots and generative approaches can be used to mount
successful false-acceptance adversarial attacks on signature verification
systems. Initially, a convolutional neural network topology and data
augmentation strategy are explored and tuned, producing an 87.12% accurate
model for the verification of 2,640 human signatures. Two robots are then
tasked with forging 50 signatures, where 25 are used for the verification
attack, and the remaining 25 are used for tuning of the model to defend against
them. Adversarial attacks on the system show that there exists an information
security risk; the Line-us robotic arm can fool the system 24% of the time and
the iDraw 2.0 robot 32% of the time. A conditional GAN finds similar success,
with around 30% forged signatures misclassified as genuine. Following fine-tune
transfer learning of robotic and generative data, adversarial attacks are
reduced below the model threshold by both robots and the GAN. It is observed
that tuning the model reduces the risk of attack by robots to 8% and 12%, and
that conditional generative adversarial attacks can be reduced to 4% when 25
images are presented and 5% when 1000 images are presented.
- Abstract(参考訳): 本研究では,ロボットと生成的アプローチを用いて,署名検証システムに対する偽受容攻撃を成功させる方法について検討する。
当初、畳み込みニューラルネットワークのトポロジとデータ拡張戦略を探索、調整し、2,640人の署名を検証するための87.12%の正確なモデルを生成する。
次に、2つのロボットが50個のシグネチャを鍛造し、25個が検証攻撃に使用され、残りの25個がモデルのチューニングに使用され、それらに対して防御する。
Line-usロボットアームはシステムの24%を騙し、iDraw 2.0ロボットは32%を騙すことができる。
条件付きGANも同様に成功し、30%の偽の署名が真と誤分類されている。
ロボットと生成データの微動伝達学習の後、ロボットとGANの両方によるモデル閾値以下での敵攻撃が減少する。
モデルのチューニングにより,ロボットによる攻撃のリスクは8%,12%,条件付き生成敵攻撃は25画像の提示時に4%,1000画像の提示時には5%に低下することが観察された。
関連論文リスト
- Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Unraveling Adversarial Examples against Speaker Identification --
Techniques for Attack Detection and Victim Model Classification [24.501269108193412]
敵対的な例は話者識別システムを脅かすことが証明されている。
本稿では,敵対的事例の存在を検出する手法を提案する。
また、敵攻撃を行う被害者モデルを特定する方法についても紹介する。
論文 参考訳(メタデータ) (2024-02-29T17:06:52Z) - Asymmetric Bias in Text-to-Image Generation with Adversarial Attacks [21.914674640285337]
本稿では、攻撃成功率(ASR)に関連する要因の分析に焦点をあてる。
敵接尾辞と2つの勾配に基づく攻撃アルゴリズムを用いた新たな攻撃目標であるエンティティスワップを導入する。
敵の攻撃で成功確率が60%になる状況と、この確率が5%以下に低下する状況を見いだす。
論文 参考訳(メタデータ) (2023-12-22T05:10:32Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - Generalized Attacks on Face Verification Systems [2.4259557752446637]
ディープニューラルネットワークモデルを用いた顔認証(FV)は近年大きく進歩している。
FVシステムは、通常人間に知られない方法でこれらのシステムを騙すために入力画像を操作する敵攻撃(Adversarial Attacks)に弱い。
与えられたアイデンティティの集合を識別する顔画像の作成を定式化するDodgePersonation Attackを導入する。
論文 参考訳(メタデータ) (2023-09-12T00:00:24Z) - Kidnapping Deep Learning-based Multirotors using Optimized Flying
Adversarial Patches [0.0]
我々は、複数の画像が少なくとも1つの飛行ロボットに搭載された飛行対向パッチを紹介した。
攻撃ロボットを導入することにより、システムは敵のマルチロボットシステムに拡張される。
提案手法は, 敵パッチ数に比例して拡張可能であることを示す。
論文 参考訳(メタデータ) (2023-08-01T07:38:31Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Unified Detection of Digital and Physical Face Attacks [61.6674266994173]
顔攻撃に対する最先端の防御メカニズムは、敵対的、デジタル操作、または物理的な偽装の3つの攻撃カテゴリのうちの1つでほぼ完璧な精度を達成します。
この3つのカテゴリに属する25のコヒーレントな攻撃タイプを自動的にクラスタリングできる統合攻撃検出フレームワーク(UniFAD)を提案する。
論文 参考訳(メタデータ) (2021-04-05T21:08:28Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking [83.48804199140758]
システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
論文 参考訳(メタデータ) (2020-04-08T18:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。