論文の概要: Attack Analysis of Face Recognition Authentication Systems Using Fast
Gradient Sign Method
- arxiv url: http://arxiv.org/abs/2203.05653v1
- Date: Thu, 10 Mar 2022 21:35:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 11:53:56.598184
- Title: Attack Analysis of Face Recognition Authentication Systems Using Fast
Gradient Sign Method
- Title(参考訳): 高速勾配符号法による顔認識認証システムの攻撃解析
- Authors: Arbena Musa, Kamer Vishi, Blerim Rexha
- Abstract要約: 本稿では,生体認証のための顔認識を用いてFGSM攻撃を解析・提示する。
機械学習技術は、モデルのトレーニングとテストに使われており、異なる人の顔の分類と識別が可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Biometric authentication methods, representing the "something you are"
scheme, are considered the most secure approach for gaining access to protected
resources. Recent attacks using Machine Learning techniques demand a serious
systematic reevaluation of biometric authentication. This paper analyzes and
presents the Fast Gradient Sign Method (FGSM) attack using face recognition for
biometric authentication. Machine Learning techniques have been used to train
and test the model, which can classify and identify different people's faces
and which will be used as a target for carrying out the attack. Furthermore,
the case study will analyze the implementation of the FGSM and the level of
performance reduction that the model will have by applying this method in
attacking. The test results were performed with the change of parameters both
in terms of training and attacking the model, thus showing the efficiency of
applying the FGSM.
- Abstract(参考訳): 生体認証手法は、保護されたリソースにアクセスするための最も安全なアプローチであると考えられている。
最近の機械学習技術による攻撃は、生体認証の重大な体系的再評価を要求する。
本稿では,生体認証のための顔認識を用いたファストグラデーションサイン法(fgsm)攻撃を解析・提示する。
機械学習技術は、モデルの訓練とテストに使われており、異なる人の顔の分類と識別が可能であり、攻撃の実行のターゲットとして使用される。
さらに,本手法を攻撃に適用することにより,FGSMの実装とモデルが持つ性能低下のレベルを分析する。
実験結果は,fgsmの適用効率を示すため,トレーニングとモデル攻撃の両面でパラメータの変更を行った。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Attacking Face Recognition with T-shirts: Database, Vulnerability
Assessment and Detection [0.0]
我々は,100のユニークな提示攻撃器を用いた1,608のTシャツ攻撃の新しいTシャツ顔提示攻撃データベースを提案する。
このような攻撃は、顔認識システムのセキュリティを損なう可能性があり、いくつかの最先端の攻撃検出メカニズムが、新しい攻撃に対して堅牢に一般化できないことを示す。
論文 参考訳(メタデータ) (2022-11-14T14:11:23Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Data-driven behavioural biometrics for continuous and adaptive user
verification using Smartphone and Smartwatch [0.0]
行動バイオメトリックスと多要素認証(MFA)をブレンドするアルゴリズムを提案する。
本研究では,モーションベースバイオメトリックスを用いてユーザの身元を検証するための2段階のユーザ検証アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-07T02:46:21Z) - AuthNet: A Deep Learning based Authentication Mechanism using Temporal
Facial Feature Movements [0.0]
パスワードを発話しながら、顔認識と、その顔のユニークな動きの両方を利用する認証機構を提案する。
提案したモデルは,任意の言語でパスワードを設定することができるため,言語障壁によって阻害されない。
論文 参考訳(メタデータ) (2020-12-04T10:46:12Z) - On the Effectiveness of Vision Transformers for Zero-shot Face
Anti-Spoofing [7.665392786787577]
本研究では、ゼロショットアンチスプーフィングタスクにおいて、視覚変換器モデルからの伝達学習を用いる。
提案手法は、HQ-WMCAおよびSiW-Mデータセットにおけるゼロショットプロトコルにおける最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-11-16T15:14:59Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。