論文の概要: Evaluating the Effectiveness and Robustness of Visual Similarity-based Phishing Detection Models
- arxiv url: http://arxiv.org/abs/2405.19598v1
- Date: Thu, 30 May 2024 01:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 18:36:41.431485
- Title: Evaluating the Effectiveness and Robustness of Visual Similarity-based Phishing Detection Models
- Title(参考訳): 視覚的類似性に基づくフィッシング検出モデルの有効性とロバスト性の評価
- Authors: Fujiao Ji, Kiho Lee, Hyungjoon Koo, Wenhao You, Euijin Choo, Hyoungshick Kim, Doowon Kim,
- Abstract要約: 我々は、最先端の視覚的類似性に基づくアンチフィッシングモデルを包括的に精査し、評価する。
分析の結果,一部のモデルでは高い精度を維持しているが,他のモデルではキュレートされたデータセットの結果よりも顕著に低い性能を示した。
我々の知る限り、この研究は、実世界におけるフィッシング検出のための視覚的類似性に基づくモデルの最初の大規模かつ体系的な評価である。
- 参考スコア(独自算出の注目度): 10.334870703744498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Phishing attacks pose a significant threat to Internet users, with cybercriminals elaborately replicating the visual appearance of legitimate websites to deceive victims. Visual similarity-based detection systems have emerged as an effective countermeasure, but their effectiveness and robustness in real-world scenarios have been unexplored. In this paper, we comprehensively scrutinize and evaluate state-of-the-art visual similarity-based anti-phishing models using a large-scale dataset of 450K real-world phishing websites. Our analysis reveals that while certain models maintain high accuracy, others exhibit notably lower performance than results on curated datasets, highlighting the importance of real-world evaluation. In addition, we observe the real-world tactic of manipulating visual components that phishing attackers employ to circumvent the detection systems. To assess the resilience of existing models against adversarial attacks and robustness, we apply visible and perturbation-based manipulations to website logos, which adversaries typically target. We then evaluate the models' robustness in handling these adversarial samples. Our findings reveal vulnerabilities in several models, emphasizing the need for more robust visual similarity techniques capable of withstanding sophisticated evasion attempts. We provide actionable insights for enhancing the security of phishing defense systems, encouraging proactive actions. To the best of our knowledge, this work represents the first large-scale, systematic evaluation of visual similarity-based models for phishing detection in real-world settings, necessitating the development of more effective and robust defenses.
- Abstract(参考訳): フィッシング攻撃はインターネットユーザーにとって重大な脅威となり、サイバー犯罪者は被害者を騙すために合法的なウェブサイトの視覚的外観を精巧に再現する。
視覚的類似性に基づく検出システムは効果的な対策として現れてきたが、実世界のシナリオにおけるその有効性と堅牢性は明らかにされていない。
本稿では,450KのリアルタイムフィッシングWebサイトの大規模データセットを用いて,最先端の視覚的類似性に基づくアンチフィッシングモデルを網羅的に検証し,評価する。
分析の結果,特定のモデルでは高い精度を維持しているが,他のモデルではキュレートされたデータセットの結果よりも明らかに低い性能を示し,実世界の評価の重要性を強調した。
さらに、フィッシング攻撃者が検出システムを回避するために使用する視覚コンポーネントを操作する現実世界の戦術を観察する。
敵の攻撃やロバスト性に対する既存モデルのレジリエンスを評価するため,敵が通常狙うウェブサイトのロゴに対して,可視的かつ摂動的操作を適用した。
次に、これらの逆サンプルを扱う際のモデルの堅牢性を評価する。
以上の結果から,より堅牢な視覚的類似性技術の必要性が強調され,高度な回避策を達成できる可能性が示唆された。
我々は、フィッシング防衛システムの安全性を高め、積極的な行動を促すための実用的な洞察を提供する。
我々の知る限り、本研究は、実環境におけるフィッシング検出のための視覚的類似性に基づく最初の大規模かつ体系的なモデルの評価であり、より効果的で堅牢な防御の開発を必要としている。
関連論文リスト
- Countering Backdoor Attacks in Image Recognition: A Survey and Evaluation of Mitigation Strategies [10.801476967873173]
本稿では,画像認識におけるバックドア攻撃に対する既存の緩和策について概説する。
我々は、8つの異なるバックドア攻撃に対して、16の最先端アプローチの広範なベンチマークを行う。
この結果は122,236個の個別実験から得られたものであり、多くのアプローチがある程度の保護を提供する一方で、その性能はかなり異なる可能性があることを示唆している。
論文 参考訳(メタデータ) (2024-11-17T23:30:01Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - SAD: Saliency-based Defenses Against Adversarial Examples [0.9786690381850356]
逆例 ドリフトモデル予測は ネットワークの本来の意図から 離れている
本研究では, 対人攻撃の影響を受けやすいクリーニングデータに対する視覚的サリエンシに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。