論文の概要: Evaluating the Effectiveness and Robustness of Visual Similarity-based Phishing Detection Models
- arxiv url: http://arxiv.org/abs/2405.19598v2
- Date: Thu, 30 Jan 2025 02:48:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 22:50:03.807352
- Title: Evaluating the Effectiveness and Robustness of Visual Similarity-based Phishing Detection Models
- Title(参考訳): 視覚的類似性に基づくフィッシング検出モデルの有効性とロバスト性の評価
- Authors: Fujiao Ji, Kiho Lee, Hyungjoon Koo, Wenhao You, Euijin Choo, Hyoungshick Kim, Doowon Kim,
- Abstract要約: フィッシング攻撃は、犠牲者を欺くために合法的なウェブサイトの視覚的外観を精巧に再現する。
視覚的類似性に基づく検出システムは効果的な対策として現れてきたが、現実のシナリオにおけるその有効性と堅牢性は過小評価されている。
実世界のフィッシングWebサイトの大規模データセットを用いて、一般的な視覚的類似性に基づくフィッシングモデルの有効性とロバスト性を網羅的に検証し、評価した。
- 参考スコア(独自算出の注目度): 10.334870703744498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Phishing attacks pose a significant threat to Internet users, with cybercriminals elaborately replicating the visual appearance of legitimate websites to deceive victims. Visual similarity-based detection systems have emerged as an effective countermeasure, but their effectiveness and robustness in real-world scenarios have been underexplored. In this paper, we comprehensively scrutinize and evaluate the effectiveness and robustness of popular visual similarity-based anti-phishing models using a large-scale dataset of 451k real-world phishing websites. Our analyses of the effectiveness reveal that while certain visual similarity-based models achieve high accuracy on curated datasets in the experimental settings, they exhibit notably low performance on real-world datasets, highlighting the importance of real-world evaluation. Furthermore, we find that the attackers evade the detectors mainly in three ways: (1) directly attacking the model pipelines, (2) mimicking benign logos, and (3) employing relatively simple strategies such as eliminating logos from screenshots. To statistically assess the resilience and robustness of existing models against adversarial attacks, we categorize the strategies attackers employ into visible and perturbation-based manipulations and apply them to website logos. We then evaluate the models' robustness using these adversarial samples. Our findings reveal potential vulnerabilities in several models, emphasizing the need for more robust visual similarity techniques capable of withstanding sophisticated evasion attempts. We provide actionable insights for enhancing the security of phishing defense systems, encouraging proactive actions.
- Abstract(参考訳): フィッシング攻撃はインターネットユーザーにとって重大な脅威となり、サイバー犯罪者は被害者を騙すために合法的なウェブサイトの視覚的外観を精巧に再現する。
視覚的類似性に基づく検出システムは効果的な対策として現れてきたが、現実のシナリオにおけるその有効性と堅牢性は過小評価されている。
本稿では,451kのリアルタイムフィッシングWebサイトの大規模データセットを用いて,一般的な視覚的類似性に基づくアンチフィッシングモデルの有効性とロバスト性を包括的に検証し,評価する。
実験結果から,特定の視覚的類似性に基づくモデルでは,実験環境においてキュレートされたデータセットに対して高い精度が得られるが,実世界のデータセットでは顕著に性能が低下し,実世界の評価の重要性が浮き彫りにされていることが明らかになった。
さらに,攻撃者は,(1)モデルパイプラインを直接攻撃する,(2)良性ロゴを模倣する,(3)スクリーンショットからロゴを除去するといった比較的単純な戦略を採用する,という3つの方法で検出を回避していることがわかった。
敵攻撃に対する既存モデルのレジリエンスとロバスト性を統計的に評価するために,攻撃者が目視および摂動に基づく操作に利用する戦略を分類し,それらをウェブサイトロゴに適用する。
次に、これらの逆数サンプルを用いてモデルのロバスト性を評価する。
以上の結果から,より堅牢な視覚的類似性技術の必要性が強調され,高度な回避の試みに耐える可能性が示唆された。
我々は、フィッシング防衛システムの安全性を高め、積極的な行動を促すための実用的な洞察を提供する。
関連論文リスト
- Evaluating the Vulnerability of ML-Based Ethereum Phishing Detectors to Single-Feature Adversarial Perturbations [9.362363409064546]
本稿では,不正取引検出の文脈において,単純な単一機能攻撃に対する機械学習モデルの脆弱性について検討する。
総合的な実験を通じて,様々な敵攻撃戦略がモデル性能指標に与える影響について検討する。
モデルロバスト性を向上し, その効果を示すために, 対戦訓練や特徴選択の強化など, 異なる緩和戦略の有効性を検討する。
論文 参考訳(メタデータ) (2025-04-24T15:54:56Z) - Adapting to Cyber Threats: A Phishing Evolution Network (PEN) Framework for Phishing Generation and Analyzing Evolution Patterns using Large Language Models [10.58220151364159]
フィッシングはいまだに広範囲にわたるサイバー脅威であり、攻撃者は詐欺メールを使って被害者を誘惑し、機密情報を暴露している。
人工知能(AI)はフィッシング攻撃に対する防御において重要な要素となっているが、これらのアプローチは重大な制限に直面している。
本稿では,大規模言語モデル (LLM) と対向学習機構を活用するフレームワークであるPhishing Evolution Network (PEN) を提案し,高品質で現実的なフィッシングサンプルを連続的に生成する。
論文 参考訳(メタデータ) (2024-11-18T09:03:51Z) - A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
ディープラーニングモデルは、様々なコンピュータビジョンタスクにおいて優れているが、誤った予測につながる入力データの逆例-サブトル摂動の影響を受けやすい。
この脆弱性は、自動運転車、セキュリティ監視、航空機の健康監視など、安全に重要なアプリケーションに重大なリスクをもたらす。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - A Sophisticated Framework for the Accurate Detection of Phishing Websites [0.0]
フィッシング(英: Phishing)は、ますます洗練されたサイバー攻撃形態であり、世界中の企業に巨額の経済的損害を与えている。
本稿では,フィッシングサイトを検出するための包括的手法を提案する。
特徴選択, 欲求アルゴリズム, クロスバリデーション, 深層学習を組み合わせて, 洗練された積み重ねアンサンブルを構築している。
論文 参考訳(メタデータ) (2024-03-13T14:26:25Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - SAD: Saliency-based Defenses Against Adversarial Examples [0.9786690381850356]
逆例 ドリフトモデル予測は ネットワークの本来の意図から 離れている
本研究では, 対人攻撃の影響を受けやすいクリーニングデータに対する視覚的サリエンシに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。