論文の概要: Detecting Cloud-Based Phishing Attacks by Combining Deep Learning Models
- arxiv url: http://arxiv.org/abs/2204.02446v1
- Date: Tue, 5 Apr 2022 18:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 13:00:08.478129
- Title: Detecting Cloud-Based Phishing Attacks by Combining Deep Learning Models
- Title(参考訳): ディープラーニングモデルを組み合わせたクラウドベースのフィッシング攻撃の検出
- Authors: Medha Atre, Birendra Jha, Ashwini Rao
- Abstract要約: Webベースのフィッシング攻撃は、今日では人気のクラウドホスティングサービスやGoogle SitesやTypeformなどのアプリを利用して攻撃をホストしている。
本稿では,このクラウドベースのフィッシング攻撃の検出におけるディープラーニングモデルの有効性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Web-based phishing attacks nowadays exploit popular cloud web hosting
services and apps such as Google Sites and Typeform for hosting their attacks.
Since these attacks originate from reputable domains and IP addresses of the
cloud services, traditional phishing detection methods such as IP reputation
monitoring and blacklisting are not very effective. Here we investigate the
effectiveness of deep learning models in detecting this class of cloud-based
phishing attacks. Specifically, we evaluate deep learning models for three
phishing detection methods--LSTM model for URL analysis, YOLOv2 model for logo
analysis, and triplet network model for visual similarity analysis. We train
the models using well-known datasets and test their performance on phishing
attacks in the wild. Our results qualitatively explain why the models succeed
or fail. Furthermore, our results highlight how combining results from the
individual models can improve the effectiveness of detecting cloud-based
phishing attacks.
- Abstract(参考訳): Webベースのフィッシング攻撃は、今日では人気のクラウドホスティングサービスやGoogle SitesやTypeformなどのアプリを利用して攻撃をホストしている。
これらの攻撃は、クラウドサービスの信頼できるドメインとIPアドレスに由来するため、IP評価監視やブラックリストのような従来のフィッシング検出方法は、あまり効果的ではない。
本稿では,クラウドベースのフィッシング攻撃の検出におけるディープラーニングモデルの有効性を検討する。
具体的には,URL解析のためのLSTMモデル,ロゴ解析のためのYOLOv2モデル,視覚的類似性解析のためのトリプルトネットワークモデルという3つのフィッシング検出手法のディープラーニングモデルを評価する。
私たちはよく知られたデータセットを使ってモデルをトレーニングし、野生のフィッシング攻撃でパフォーマンスをテストします。
私たちの結果は、なぜモデルが成功するか失敗するのかを定性的に説明します。
さらに,個々のモデルの結果を組み合わせることで,クラウドベースのフィッシング攻撃の検出効率が向上することを示す。
関連論文リスト
- AntiPhishStack: LSTM-based Stacked Generalization Model for Optimized
Phishing URL Detection [0.32141666878560626]
本稿では,フィッシングサイトを検出するための2相スタック一般化モデルであるAntiPhishStackを提案する。
このモデルは、URLと文字レベルのTF-IDF特徴の学習を対称的に活用し、新たなフィッシング脅威に対処する能力を高める。
良性およびフィッシングまたは悪意のあるURLを含む2つのベンチマークデータセットに対する実験的検証は、既存の研究と比較して96.04%の精度で、このモデルの例外的な性能を示している。
論文 参考訳(メタデータ) (2024-01-17T03:44:27Z) - Security and Privacy Challenges in Deep Learning Models [0.0]
ディープラーニングモデルは、モデルのセキュリティとデータのプライバシを侵害するさまざまな攻撃を受けることができる。
モデル抽出攻撃、モデル反転攻撃、および敵攻撃について論じる。
データ中毒攻撃は、トレーニングセットに有害なデータを追加し、学習プロセスを中断し、ディープラーニングモードの信頼性を低下させる。
論文 参考訳(メタデータ) (2023-11-23T00:26:14Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - On Feasibility of Server-side Backdoor Attacks on Split Learning [5.559334420715782]
Split Learningは、複数の参加者(クライアント)がデータセットをプライベートに保ちながら、共有モデルのトレーニングを可能にする、共同学習設計である。
近年の研究では、協調学習モデルは、モデル推論やバックドア攻撃のようなセキュリティやプライバシ攻撃に弱いことが示されている。
本稿では,分割学習に対する新たなバックドア攻撃を行い,その有効性について検討する。
論文 参考訳(メタデータ) (2023-02-19T14:06:08Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - DeepSight: Mitigating Backdoor Attacks in Federated Learning Through
Deep Model Inspection [26.593268413299228]
フェデレートラーニング(FL)では、複数のクライアントが、データを公開せずに、プライベートデータ上でニューラルネットワーク(NN)モデルを協調的にトレーニングすることができる。
DeepSightは、バックドア攻撃を緩和するための新しいモデルフィルタリングアプローチである。
モデルの性能に悪影響を及ぼすことなく、最先端のバックドア攻撃を軽減できることを示す。
論文 参考訳(メタデータ) (2022-01-03T17:10:07Z) - Detecting Phishing Sites -- An Overview [0.0]
フィッシングは、研究者が解決策を見つけようとする最も厳しいサイバー攻撃の1つだ。
フィッシングによるダメージを最小限に抑えるためには、できるだけ早く検出する必要がある。
ホワイトリスト、ブラックリスト、コンテンツベース、URLベース、ビジュアル類似性、機械学習に基づくさまざまなフィッシング検出技術がある。
論文 参考訳(メタデータ) (2021-03-23T19:16:03Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。