論文の概要: Advanced Evasion Attacks and Mitigations on Practical ML-Based Phishing
Website Classifiers
- arxiv url: http://arxiv.org/abs/2004.06954v1
- Date: Wed, 15 Apr 2020 09:04:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 04:17:02.962367
- Title: Advanced Evasion Attacks and Mitigations on Practical ML-Based Phishing
Website Classifiers
- Title(参考訳): MLに基づくフィッシングウェブサイト分類器の高度な侵入攻撃と軽減
- Authors: Yusi Lei, Sen Chen, Lingling Fan, Fu Song, and Yang Liu
- Abstract要約: グレーボックスやブラックボックスのシナリオであっても、MLベースのアンチフィッシング分類器で回避攻撃を起動できることが示される。
本稿では,標的分類器の知識が異なる3つの突然変異に基づく攻撃を提案し,重要な技術的課題に対処する。
我々は、最先端のGoogleのフィッシングページフィルタに対する回避攻撃の有効性と効率を実証し、Webサイト当たり1秒未満で100%の攻撃成功率を達成した。
- 参考スコア(独自算出の注目度): 12.760638960844249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) based approaches have been the mainstream solution for
anti-phishing detection. When they are deployed on the client-side, ML-based
classifiers are vulnerable to evasion attacks. However, such potential threats
have received relatively little attention because existing attacks destruct the
functionalities or appearance of webpages and are conducted in the white-box
scenario, making it less practical. Consequently, it becomes imperative to
understand whether it is possible to launch evasion attacks with limited
knowledge of the classifier, while preserving the functionalities and
appearance.
In this work, we show that even in the grey-, and black-box scenarios,
evasion attacks are not only effective on practical ML-based classifiers, but
can also be efficiently launched without destructing the functionalities and
appearance. For this purpose, we propose three mutation-based attacks,
differing in the knowledge of the target classifier, addressing a key technical
challenge: automatically crafting an adversarial sample from a known phishing
website in a way that can mislead classifiers. To launch attacks in the white-
and grey-box scenarios, we also propose a sample-based collision attack to gain
the knowledge of the target classifier. We demonstrate the effectiveness and
efficiency of our evasion attacks on the state-of-the-art, Google's phishing
page filter, achieved 100% attack success rate in less than one second per
website. Moreover, the transferability attack on BitDefender's industrial
phishing page classifier, TrafficLight, achieved up to 81.25% attack success
rate. We further propose a similarity-based method to mitigate such evasion
attacks, Pelican. We demonstrate that Pelican can effectively detect evasion
attacks. Our findings contribute to design more robust phishing website
classifiers in practice.
- Abstract(参考訳): 機械学習(ML)ベースのアプローチは、アンチフィッシング検出の主流ソリューションである。
クライアント側にデプロイされると、mlベースの分類器は回避攻撃に弱い。
しかし、既存の攻撃でWebページの機能や外観が損なわれ、ホワイトボックスのシナリオで実行されるため、そのような潜在的な脅威は比較的注目されていない。
したがって、機能や外観を保ちつつ、分類器の知識を限定して回避攻撃を起動できるかどうかを理解することが不可欠となる。
本研究では,グレー,ブラックボックスのシナリオにおいても,回避攻撃は実用的なMLベース分類器に有効であるだけでなく,機能や外観を損なうことなく効率的に起動可能であることを示す。
そこで本研究では,対象分類器の知識によって異なる3つの突然変異に基づく攻撃を提案し,既知のフィッシングサイトから敵のサンプルを自動的に作成し,分類器を誤誘導する手法を提案する。
白とグレーのボックスシナリオで攻撃を開始するために、ターゲット分類器の知識を得るためにサンプルベースの衝突攻撃を提案する。
我々は、最先端のGoogleのフィッシングページフィルタに対する回避攻撃の有効性と効率を実証し、Webサイト当たり1秒未満で100%の攻撃成功率を達成した。
さらに、BitDefenderの産業用フィッシングページ分類器であるTrafficLightへの転送可能性攻撃は81.25%の攻撃成功率を達成した。
さらに,このような回避攻撃を緩和する類似性に基づく手法を提案する。
ペリカンが効果的に回避攻撃を検知できることを実証する。
本研究は,より堅牢なフィッシングサイト分類器の設計に寄与する。
関連論文リスト
- Mitigating Label Flipping Attacks in Malicious URL Detectors Using
Ensemble Trees [16.16333915007336]
悪意のあるURLは、交通、医療、エネルギー、銀行など、様々な産業で敵対的な機会を提供する。
バックドア攻撃は、ラベルフリップ(LF)など、少数のトレーニングデータラベルを操作することで、良質なラベルを悪意のあるラベルに変更し、その逆を処理します。
本稿では,有毒なラベルの存在を検知するアラームシステムと,オリジナルクラスラベルの発見を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-03-05T14:21:57Z) - Does Few-shot Learning Suffer from Backdoor Attacks? [63.9864247424967]
数発の学習がバックドアアタックに対して脆弱であることは明らかです。
本手法は,FSLタスクにおける攻撃成功率(ASR)を,異なる数発の学習パラダイムで示す。
この研究は、数発の学習がまだバックドア攻撃に悩まされており、そのセキュリティに注意を払う必要があることを明らかにしている。
論文 参考訳(メタデータ) (2023-12-31T06:43:36Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Multi-SpacePhish: Extending the Evasion-space of Adversarial Attacks
against Phishing Website Detectors using Machine Learning [22.304132275659924]
本稿では,ML-PWDを騙すために対向的摂動を導入する「回避空間」を定式化する。
そこで我々は,より安価なML-PWDに対する回避攻撃を記述した現実的な脅威モデルを提案する。
論文 参考訳(メタデータ) (2022-10-24T23:45:09Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Feature Importance Guided Attack: A Model Agnostic Adversarial Attack [0.0]
本稿では,敵の避難サンプルを生成する「FIGA(Feature Importance Guided Attack)」を提案する。
8種類のフィッシング検出モデルに対してFIGAを実証する。
フィッシング検出モデルのF1スコアを平均0.96から0.41に下げることが可能である。
論文 参考訳(メタデータ) (2021-06-28T15:46:22Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Adversarial Feature Selection against Evasion Attacks [17.98312950660093]
本稿では,回避攻撃に対する分類器の安全性を向上させるための,新たな対向認識機能選択モデルを提案する。
このアプローチの効率的かつラッパーベースの実装に注力し、異なるアプリケーションの例でその音質を実験的に検証する。
論文 参考訳(メタデータ) (2020-05-25T15:05:51Z) - Category-wise Attack: Transferable Adversarial Examples for Anchor Free
Object Detection [38.813947369401525]
本研究では,アンカーフリーなオブジェクトモデルに対する敵例を生成するための効率的かつ効率的なアルゴリズムを提案する。
驚くべきことに、生成した敵の例は、標的となるアンカーフリー物体検出器を効果的に攻撃するだけでなく、他の物体検出器を攻撃するために移動させることもできる。
論文 参考訳(メタデータ) (2020-02-10T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。