論文の概要: Detecting Cloud-Based Phishing Attacks by Combining Deep Learning Models
- arxiv url: http://arxiv.org/abs/2204.02446v1
- Date: Tue, 5 Apr 2022 18:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 13:00:08.478129
- Title: Detecting Cloud-Based Phishing Attacks by Combining Deep Learning Models
- Title(参考訳): ディープラーニングモデルを組み合わせたクラウドベースのフィッシング攻撃の検出
- Authors: Medha Atre, Birendra Jha, Ashwini Rao
- Abstract要約: Webベースのフィッシング攻撃は、今日では人気のクラウドホスティングサービスやGoogle SitesやTypeformなどのアプリを利用して攻撃をホストしている。
本稿では,このクラウドベースのフィッシング攻撃の検出におけるディープラーニングモデルの有効性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Web-based phishing attacks nowadays exploit popular cloud web hosting
services and apps such as Google Sites and Typeform for hosting their attacks.
Since these attacks originate from reputable domains and IP addresses of the
cloud services, traditional phishing detection methods such as IP reputation
monitoring and blacklisting are not very effective. Here we investigate the
effectiveness of deep learning models in detecting this class of cloud-based
phishing attacks. Specifically, we evaluate deep learning models for three
phishing detection methods--LSTM model for URL analysis, YOLOv2 model for logo
analysis, and triplet network model for visual similarity analysis. We train
the models using well-known datasets and test their performance on phishing
attacks in the wild. Our results qualitatively explain why the models succeed
or fail. Furthermore, our results highlight how combining results from the
individual models can improve the effectiveness of detecting cloud-based
phishing attacks.
- Abstract(参考訳): Webベースのフィッシング攻撃は、今日では人気のクラウドホスティングサービスやGoogle SitesやTypeformなどのアプリを利用して攻撃をホストしている。
これらの攻撃は、クラウドサービスの信頼できるドメインとIPアドレスに由来するため、IP評価監視やブラックリストのような従来のフィッシング検出方法は、あまり効果的ではない。
本稿では,クラウドベースのフィッシング攻撃の検出におけるディープラーニングモデルの有効性を検討する。
具体的には,URL解析のためのLSTMモデル,ロゴ解析のためのYOLOv2モデル,視覚的類似性解析のためのトリプルトネットワークモデルという3つのフィッシング検出手法のディープラーニングモデルを評価する。
私たちはよく知られたデータセットを使ってモデルをトレーニングし、野生のフィッシング攻撃でパフォーマンスをテストします。
私たちの結果は、なぜモデルが成功するか失敗するのかを定性的に説明します。
さらに,個々のモデルの結果を組み合わせることで,クラウドベースのフィッシング攻撃の検出効率が向上することを示す。
関連論文リスト
- Adapting to Cyber Threats: A Phishing Evolution Network (PEN) Framework for Phishing Generation and Analyzing Evolution Patterns using Large Language Models [10.58220151364159]
フィッシングはいまだに広範囲にわたるサイバー脅威であり、攻撃者は詐欺メールを使って被害者を誘惑し、機密情報を暴露している。
人工知能(AI)はフィッシング攻撃に対する防御において重要な要素となっているが、これらのアプローチは重大な制限に直面している。
本稿では,大規模言語モデル (LLM) と対向学習機構を活用するフレームワークであるPhishing Evolution Network (PEN) を提案し,高品質で現実的なフィッシングサンプルを連続的に生成する。
論文 参考訳(メタデータ) (2024-11-18T09:03:51Z) - Can Features for Phishing URL Detection Be Trusted Across Diverse Datasets? A Case Study with Explainable AI [0.0]
フィッシング(Phishing)は、ユーザーを操り、偽装戦術によって機密性の高い個人情報を暴露するサイバー脅威として広く利用されている。
フィッシングURL(またはウェブサイト)を積極的に検出することは、広く受け入れられた防衛アプローチとして確立されている。
公開されている2つのフィッシングURLデータセットを分析し、それぞれのデータセットにはURL文字列とWebサイトコンテンツに関連する独自の、重複した機能セットがあります。
論文 参考訳(メタデータ) (2024-11-14T21:07:52Z) - PhishGuard: A Multi-Layered Ensemble Model for Optimal Phishing Website Detection [0.0]
フィッシング攻撃はサイバーセキュリティの脅威の増大であり、悪意のあるウェブサイトを通じて機密情報を盗むのに詐欺的手法を活用している。
本稿では、フィッシングサイト検出を改善するために設計された最適なカスタムアンサンブルモデルであるPhishGuardを紹介する。
このモデルは、ランダムフォレスト、グラディエントブースティング、CatBoost、XGBoostを含む複数の機械学習分類器を組み合わせて、検出精度を高める。
論文 参考訳(メタデータ) (2024-09-29T23:15:57Z) - Evaluating the Effectiveness and Robustness of Visual Similarity-based Phishing Detection Models [10.334870703744498]
我々は、最先端の視覚的類似性に基づくアンチフィッシングモデルを包括的に精査し、評価する。
分析の結果,一部のモデルでは高い精度を維持しているが,他のモデルではキュレートされたデータセットの結果よりも顕著に低い性能を示した。
我々の知る限り、この研究は、実世界におけるフィッシング検出のための視覚的類似性に基づくモデルの最初の大規模かつ体系的な評価である。
論文 参考訳(メタデータ) (2024-05-30T01:28:36Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - DeepSight: Mitigating Backdoor Attacks in Federated Learning Through
Deep Model Inspection [26.593268413299228]
フェデレートラーニング(FL)では、複数のクライアントが、データを公開せずに、プライベートデータ上でニューラルネットワーク(NN)モデルを協調的にトレーニングすることができる。
DeepSightは、バックドア攻撃を緩和するための新しいモデルフィルタリングアプローチである。
モデルの性能に悪影響を及ぼすことなく、最先端のバックドア攻撃を軽減できることを示す。
論文 参考訳(メタデータ) (2022-01-03T17:10:07Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。