論文の概要: Reliability and Robustness analysis of Machine Learning based Phishing
URL Detectors
- arxiv url: http://arxiv.org/abs/2005.08454v3
- Date: Thu, 24 Nov 2022 09:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:35:23.230032
- Title: Reliability and Robustness analysis of Machine Learning based Phishing
URL Detectors
- Title(参考訳): 機械学習に基づくフィッシングURL検出器の信頼性とロバスト性解析
- Authors: Bushra Sabir (University of Adelaide, CREST - The Centre for Research
on Engineering Software Technologies, CSIROs Data61) and M. Ali Babar
(University of Adelaide, CREST - The Centre for Research on Engineering
Software Technologies), Raj Gaire (CSIROs Data61) and Alsharif Abuadbba
(CSIROs DATA61)
- Abstract要約: MLPU(ML-based Phishing URL)検出器は、ユーザーや組織がフィッシング攻撃の犠牲者になることを防ぐための、最初の防御レベルとして機能する。
本稿では,50種類の最先端モデルの信頼性とロバスト性について検討する手法を提案する。
ボックスプロットとヒートマップを用いてその堅牢性と信頼性を解析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ML-based Phishing URL (MLPU) detectors serve as the first level of defence to
protect users and organisations from being victims of phishing attacks. Lately,
few studies have launched successful adversarial attacks against specific MLPU
detectors raising questions about their practical reliability and usage.
Nevertheless, the robustness of these systems has not been extensively
investigated. Therefore, the security vulnerabilities of these systems, in
general, remain primarily unknown which calls for testing the robustness of
these systems. In this article, we have proposed a methodology to investigate
the reliability and robustness of 50 representative state-of-the-art MLPU
models. Firstly, we have proposed a cost-effective Adversarial URL generator
URLBUG that created an Adversarial URL dataset. Subsequently, we reproduced 50
MLPU (traditional ML and Deep learning) systems and recorded their baseline
performance. Lastly, we tested the considered MLPU systems on Adversarial
Dataset and analyzed their robustness and reliability using box plots and heat
maps. Our results showed that the generated adversarial URLs have valid syntax
and can be registered at a median annual price of \$11.99. Out of 13\% of the
already registered adversarial URLs, 63.94\% were used for malicious purposes.
Moreover, the considered MLPU models Matthew Correlation Coefficient (MCC)
dropped from a median 0.92 to 0.02 when tested against $Adv_\mathrm{data}$,
indicating that the baseline MLPU models are unreliable in their current form.
Further, our findings identified several security vulnerabilities of these
systems and provided future directions for researchers to design dependable and
secure MLPU systems.
- Abstract(参考訳): MLPU(ML-based Phishing URL)検出器は、ユーザーや組織がフィッシング攻撃の犠牲者になることを防ぐための、最初の防御レベルとなる。
近年、特定のMLPU検出器に対する敵攻撃が成功し、実用的信頼性と使用法に関する疑問が持ち上がっている研究はほとんどない。
しかしながら、これらのシステムの堅牢性は広く研究されていない。
したがって、これらのシステムのセキュリティ上の脆弱性は、一般に主に、これらのシステムの堅牢性をテストすることを要求する未知のままである。
本稿では,50種類の最先端MLPUモデルの信頼性と堅牢性を検討する手法を提案する。
まず、コスト効率の良いAdversarial URLgenerator URLBUGを提案し、Adversarial URLデータセットを作成しました。
その後,50mlpu(classic ml and deep learning)システムを再現し,ベースライン性能を記録した。
最後に,Adversarial Dataset上でMLPUシステムの検討を行い,ボックスプロットとヒートマップを用いてその堅牢性と信頼性について検討した。
その結果, 生成した逆行URLは有効な構文を持ち, 年間平均11.99ドルで登録可能であることがわかった。
既に登録されている敵urlのうち13\%のうち、63.94\%は悪意のある目的で使われた。
さらに、検討されたMLPUモデルであるMatthew correlation Coefficient (MCC)は、$Adv_\mathrm{data}$に対してテストすると、中央値0.92から0.02に低下し、ベースラインMLPUモデルは現在の形式では信頼できないことを示した。
さらに,これらのシステムのセキュリティ脆弱性を指摘し,信頼性とセキュアなmlpuシステムの設計に向けた今後の方向性を示した。
関連論文リスト
- Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - Position Paper: Think Globally, React Locally -- Bringing Real-time Reference-based Website Phishing Detection on macOS [0.4962561299282114]
最近のフィッシング攻撃の急増は、従来の反フィッシング・ブラックリストのアプローチの有効性を弱め続けている。
デバイス上でのフィッシング防止ソリューションは、ローカルで高速なフィッシング検出を提供するため、人気が高まっている。
コンピュータビジョンとデバイス上の機械学習モデルを組み合わせてウェブサイトをリアルタイムで分析するフィッシング検出ソリューションを提案する。
論文 参考訳(メタデータ) (2024-05-28T14:46:03Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Detecting Phishing Sites Using ChatGPT [2.3999111269325266]
本稿では,大規模言語モデル(LLM)を用いてフィッシングサイトを検出するChatPhishDetectorという新しいシステムを提案する。
本システムでは,Webクローラを利用してWebサイトから情報を収集し,クローリングデータに基づいてLLMのプロンプトを生成し,LLMが生成した応答から検出結果を取得する。
GPT-4Vを用いた実験結果は、98.7%の精度と99.6%のリコールで優れた性能を示し、他のLLMや既存のシステムよりも優れていた。
論文 参考訳(メタデータ) (2023-06-09T11:30:08Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - PUF-Phenotype: A Robust and Noise-Resilient Approach to Aid
Intra-Group-based Authentication with DRAM-PUFs Using Machine Learning [10.445311342905118]
機械学習(ML)を用いて,DRAM PUF応答の起源を正確に識別する分類システムを提案する。
特徴抽出のための改良深部畳み込みニューラルネットワーク(CNN)を用いて,最大98%の分類精度を実現した。
論文 参考訳(メタデータ) (2022-07-11T08:13:08Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking [83.48804199140758]
システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
論文 参考訳(メタデータ) (2020-04-08T18:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。