論文の概要: Multi-SpacePhish: Extending the Evasion-space of Adversarial Attacks
against Phishing Website Detectors using Machine Learning
- arxiv url: http://arxiv.org/abs/2210.13660v3
- Date: Thu, 12 Oct 2023 00:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 04:34:13.045182
- Title: Multi-SpacePhish: Extending the Evasion-space of Adversarial Attacks
against Phishing Website Detectors using Machine Learning
- Title(参考訳): Multi-SpacePhish: 機械学習を用いたフィッシングサイト検出器に対する敵攻撃空間の拡張
- Authors: Ying Yuan, Giovanni Apruzzese, Mauro Conti
- Abstract要約: 本稿では,ML-PWDを騙すために対向的摂動を導入する「回避空間」を定式化する。
そこで我々は,より安価なML-PWDに対する回避攻撃を記述した現実的な脅威モデルを提案する。
- 参考スコア(独自算出の注目度): 22.304132275659924
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing literature on adversarial Machine Learning (ML) focuses either on
showing attacks that break every ML model, or defenses that withstand most
attacks. Unfortunately, little consideration is given to the actual feasibility
of the attack or the defense. Moreover, adversarial samples are often crafted
in the "feature-space", making the corresponding evaluations of questionable
value. Simply put, the current situation does not allow to estimate the actual
threat posed by adversarial attacks, leading to a lack of secure ML systems.
We aim to clarify such confusion in this paper. By considering the
application of ML for Phishing Website Detection (PWD), we formalize the
"evasion-space" in which an adversarial perturbation can be introduced to fool
a ML-PWD -- demonstrating that even perturbations in the "feature-space" are
useful. Then, we propose a realistic threat model describing evasion attacks
against ML-PWD that are cheap to stage, and hence intrinsically more attractive
for real phishers. After that, we perform the first statistically validated
assessment of state-of-the-art ML-PWD against 12 evasion attacks. Our
evaluation shows (i) the true efficacy of evasion attempts that are more likely
to occur; and (ii) the impact of perturbations crafted in different
evasion-spaces. Our realistic evasion attempts induce a statistically
significant degradation (3-10% at p<0.05), and their cheap cost makes them a
subtle threat. Notably, however, some ML-PWD are immune to our most realistic
attacks (p=0.22).
Finally, as an additional contribution of this journal publication, we are
the first to consider the intriguing case wherein an attacker introduces
perturbations in multiple evasion-spaces at the same time. These new results
show that simultaneously applying perturbations in the problem- and
feature-space can cause a drop in the detection rate from 0.95 to 0.
- Abstract(参考訳): 敵機械学習(ML)に関する既存の文献は、すべてのMLモデルを壊す攻撃を示すことに焦点を当てている。
残念ながら、実際の攻撃や防御の可能性についてはほとんど考慮されていない。
さらに、逆のサンプルはしばしば「機能空間」で作成され、対応する値の評価が問題となる。
簡単に言えば、現在の状況は敵の攻撃によって引き起こされる実際の脅威を推定することができず、セキュアなMLシステムが欠如している。
我々はそのような混乱をこの論文で明確にすることを目指している。
フィッシングサイト検出(PWD)におけるMLの適用を考慮し,ML-PWDを騙すために対向的摂動を導入する「回避空間」を定式化する。
そこで本研究では,より安価なML-PWDに対する回避攻撃を記述した現実的な脅威モデルを提案する。
その後,12回の回避攻撃に対して,最先端ML-PWDの統計的評価を行った。
我々の評価は
(i)より起こりやすい回避の試みの真の効果
(ii)異なる蒸発空間で製作された摂動の影響
我々の現実的な回避の試みは統計的に有意な低下(p<0.05で3-10%)を引き起こし、その安価さは微妙な脅威となる。
しかしながら、いくつかのML-PWDは我々の最も現実的な攻撃に免疫を持つ(p=0.22)。
最後に,本論文のさらなる貢献として,攻撃者が同時に複数の避難空間に摂動を導入するという興味深い事例を考察する。
これらの結果から,問題空間と特徴空間の摂動を同時に適用することで,検出率が0.95から0に低下する可能性が示唆された。
関連論文リスト
- Uncertainty is Fragile: Manipulating Uncertainty in Large Language Models [79.76293901420146]
大規模言語モデル(LLM)は、出力の信頼性が不可欠である様々な高い領域で採用されている。
本研究では,不確実性推定の脆弱性を調査し,攻撃の可能性を探る。
攻撃者がLSMにバックドアを埋め込むことができ、入力中の特定のトリガーによって起動されると、最終的な出力に影響を与えることなくモデルの不確実性を操作できることを示す。
論文 参考訳(メタデータ) (2024-07-15T23:41:11Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Adversarial Evasion Attacks Practicality in Networks: Testing the Impact of Dynamic Learning [1.6574413179773757]
敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
敵攻撃はMLベースのNIDSを妥協する。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の有効性を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Feature Importance Guided Attack: A Model Agnostic Adversarial Attack [0.0]
本稿では,敵の避難サンプルを生成する「FIGA(Feature Importance Guided Attack)」を提案する。
8種類のフィッシング検出モデルに対してFIGAを実証する。
フィッシング検出モデルのF1スコアを平均0.96から0.41に下げることが可能である。
論文 参考訳(メタデータ) (2021-06-28T15:46:22Z) - Evaluating and Improving Adversarial Robustness of Machine
Learning-Based Network Intrusion Detectors [21.86766733460335]
本研究では,ML ベースの NIDS のロバスト性を評価するため,グレー/ブラックボックスのトラフィック空間攻撃に関する最初の系統的研究を行った。
私たちの仕事は、以下の点で以前のものより優れています。
また,システムロバスト性を改善するために,敵攻撃に対する防御策を提案する。
論文 参考訳(メタデータ) (2020-05-15T13:06:00Z) - Advanced Evasion Attacks and Mitigations on Practical ML-Based Phishing
Website Classifiers [12.760638960844249]
グレーボックスやブラックボックスのシナリオであっても、MLベースのアンチフィッシング分類器で回避攻撃を起動できることが示される。
本稿では,標的分類器の知識が異なる3つの突然変異に基づく攻撃を提案し,重要な技術的課題に対処する。
我々は、最先端のGoogleのフィッシングページフィルタに対する回避攻撃の有効性と効率を実証し、Webサイト当たり1秒未満で100%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2020-04-15T09:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。