論文の概要: Anti-Phishing Training Does Not Work: A Large-Scale Empirical Assessment of Multi-Modal Training Grounded in the NIST Phish Scale
- arxiv url: http://arxiv.org/abs/2506.19899v1
- Date: Tue, 24 Jun 2025 17:57:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.490755
- Title: Anti-Phishing Training Does Not Work: A Large-Scale Empirical Assessment of Multi-Modal Training Grounded in the NIST Phish Scale
- Title(参考訳): NISTフィッシュスケールにおけるマルチモーダルトレーニングの大規模評価
- Authors: Andrew T. Rozema, James C. Davis,
- Abstract要約: フィッシング攻撃はサイバーセキュリティの重要な脅威だ。
多くの組織は、そのサイバーセキュリティ予算のかなりの部分をフィッシング意識トレーニングに割り当てている。
根拠に基づくサイバーセキュリティ投資には、訓練(有効性)の実証的な証拠が不可欠である。
- 参考スコア(独自算出の注目度): 3.599344290726663
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Social engineering attacks using email, commonly known as phishing, are a critical cybersecurity threat. Phishing attacks often lead to operational incidents and data breaches. As a result, many organizations allocate a substantial portion of their cybersecurity budgets to phishing awareness training, driven in part by compliance requirements. However, the effectiveness of this training remains in dispute. Empirical evidence of training (in)effectiveness is essential for evidence-based cybersecurity investment and policy development. Despite recent measurement studies, two critical gaps remain in the literature: (1) we lack a validated measure of phishing lure difficulty, and (2) there are few comparisons of different types of training in real-world business settings. To fill these gaps, we conducted a large-scale study ($N = 12{,}511$) of phishing effectiveness at a US-based financial technology (``fintech'') firm. Our two-factor design compared the effect of treatments (lecture-based, interactive, and control groups) on subjects' susceptibility to phishing lures of varying complexity (using the NIST Phish Scale). The NIST Phish Scale successfully predicted behavior (click rates: 7.0\% easy to 15.0\% hard emails, p $<$ 0.001), but training showed no significant main effects on clicks (p = 0.450) or reporting (p = 0.417). Effect sizes remained below 0.01, indicating little practical value in any of the phishing trainings we deployed. Our results add to the growing evidence that phishing training is ineffective, reinforcing the importance of phishing defense-in-depth and the merit of changes to processes and technology to reduce reliance on humans, as well as rebuking the training costs necessitated by regulatory requirements.
- Abstract(参考訳): フィッシングとして知られる電子メールを使った社会工学的攻撃は、重要なサイバーセキュリティの脅威である。
フィッシング攻撃は、しばしば運用上のインシデントやデータ漏洩を引き起こす。
その結果、多くの組織は、コンプライアンス要件の一部によって推進されるフィッシング意識トレーニングに、サイバーセキュリティ予算のかなりの部分を割り当てている。
しかし、この訓練の有効性は議論の余地がある。
実証的なトレーニング(有効性)の証拠は、証拠に基づくサイバーセキュリティ投資と政策開発に不可欠である。
近年の研究にもかかわらず,(1)フィッシングの難易度を実証した尺度が欠如していること,(2)実世界のビジネス環境での異なるタイプのトレーニングの比較は少ないこと,の2つの重要なギャップが文献に残されている。
これらのギャップを埋めるために、米国拠点の金融技術(「フィンテック」)会社でフィッシングの有効性に関する大規模な調査(N = 12{,}511$)を行った。
NIST Phish Scaleを用いた2要素設計では,治療効果(講義ベース,対話型,コントロールグループ)が,複雑度の異なるフィッシングルアーへの感受性に及ぼす影響を比較検討した。
NIST Phish Scaleは動作予測に成功(クリックレート:7.0\%から15.0\%のハードメール、p$<001)したが、クリック(p = 0.450)やレポート(p = 0.417)には大きな影響を与えなかった。
効果の大きさは0.01以下であり、配備したフィッシング訓練では実用的価値はほとんどなかった。
本研究は,フィッシング・トレーニングが不効率であることを示す証拠として,フィッシング・ディフェンス・イン・ディープスの重要性と,人への依存を減らすためのプロセスや技術の変更のメリットを裏付けるとともに,規制要件によって必要となるトレーニングコストを償還するものである。
関連論文リスト
- Sustaining Cyber Awareness: The Long-Term Impact of Continuous Phishing Training and Emotional Triggers [1.0399614883374282]
フィッシングは世界のサイバー攻撃の成功の90%以上を占めている。
本研究では、継続的なサイバーセキュリティトレーニングと感情的手がかりが、フィッシングに対する従業員の感受性にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2025-10-31T09:15:34Z) - Evaluating the Dynamics of Membership Privacy in Deep Learning [9.899573367308506]
メンバーシップ推論攻撃(MIA)は、ディープラーニングにおけるトレーニングデータのプライバシーに重大な脅威をもたらす。
本稿では,個々のサンプルレベルでのプライバシー漏洩ダイナミクスの分離と定量化のための動的解析フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-31T07:09:52Z) - AdaPhish: AI-Powered Adaptive Defense and Education Resource Against Deceptive Emails [0.0]
AdaPhishはAIを利用してフィッシングメールを自動的に匿名化し分析するフィッシュボウルプラットフォームだ。
フィッシングトレンドの長期追跡を可能にしながら、新しいフィッシング戦術へのリアルタイム検出と適応を実現している。
AdaPhishは、フィッシング検出とサイバーセキュリティ教育のためのスケーラブルでコラボレーティブなソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-05T21:17:19Z) - PEEK: Phishing Evolution Framework for Phishing Generation and Evolving Pattern Analysis using Large Language Models [10.455333111937598]
フィッシングはいまだに広範囲にわたるサイバー脅威であり、攻撃者は詐欺メールを使って被害者を誘惑し、機密情報を暴露している。
深層学習はフィッシング攻撃に対する防御において重要な要素となっているが、これらのアプローチは重大な制限に直面している。
フィッシングメールデータセットの質と多様性を向上するためのPEEK(Phishing Evolution FramEworK)を提案する。
論文 参考訳(メタデータ) (2024-11-18T09:03:51Z) - Persistent Pre-Training Poisoning of LLMs [71.53046642099142]
我々の研究は、事前学習中に言語モデルも妥協できるかどうかを初めて評価した。
我々は、有害な敵に対する影響を測定するために、スクラッチから一連のLSMを事前訓練する。
我々の主な結果は、モデルの事前トレーニングデータセットの0.1%しか中毒にならず、4つの攻撃のうち3つがポストトレーニングを通じて持続するのに十分であるということです。
論文 参考訳(メタデータ) (2024-10-17T16:27:13Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Content, Nudges and Incentives: A Study on the Effectiveness and Perception of Embedded Phishing Training [14.482027080866104]
フィッシングトレーニングを3つの側面から検討した。
知識は、その内容、評価やリマインダーから得られるものであり、潜在的な結果の抑止効果である。
本研究は,研修実践に関するいくつかの新しい知見に貢献する。
論文 参考訳(メタデータ) (2024-09-02T17:17:44Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - An Innovative Information Theory-based Approach to Tackle and Enhance The Transparency in Phishing Detection [23.962076093344166]
フィッシングアタックローカライゼーションのための革新的な深層学習手法を提案する。
本手法は,メールデータの脆弱性を予測するだけでなく,最も重要なフィッシング関連情報を自動的に学習し,発見する。
論文 参考訳(メタデータ) (2024-02-27T00:03:07Z) - A Study of Different Awareness Campaigns in a Company [0.0]
フィッシング(英: Phishing)は、金融や評判を損なう可能性のある組織にとって、大きなサイバー脅威である。
本稿では,意識概念をうまく実装し,検証する方法について検討する。
論文 参考訳(メタデータ) (2023-08-29T09:57:11Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - SoK: Human-Centered Phishing Susceptibility [4.794822439017277]
フィッシングの検出と防止に人間がどう関わっているかを説明する3段階のフィッシング・サセプティビリティ・モデル(PSM)を提案する。
このモデルは、ユーザの検出性能を改善するために対処する必要があるいくつかの研究ギャップを明らかにする。
論文 参考訳(メタデータ) (2022-02-16T07:26:53Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - On the Impact of Hard Adversarial Instances on Overfitting in Adversarial Training [70.82725772926949]
敵の訓練は、敵の攻撃に対してモデルを強固にするための一般的な方法である。
本研究では,この現象をトレーニングインスタンスの観点から検討する。
逆行訓練における一般化性能の低下は、ハード・逆行例に適合した結果であることを示す。
論文 参考訳(メタデータ) (2021-12-14T12:19:24Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z) - Evaluation of Federated Learning in Phishing Email Detection [24.85352882358906]
本稿では、深層ニューラルネットワークモデル、特に、フィッシングメール検出のためのRNNとBERTに基づいて構築する。
FLの絡み合った学習性能を、バランスの取れたデータや非対称なデータ分布を含む様々な設定で分析する。
論文 参考訳(メタデータ) (2020-07-27T03:58:00Z) - Phishing and Spear Phishing: examples in Cyber Espionage and techniques
to protect against them [91.3755431537592]
フィッシング攻撃は、2012年以降、サイバー攻撃の91%以上を突破し、オンライン詐欺で最も使われているテクニックとなっている。
本研究は, フィッシングとスピア・フィッシングによる攻撃が, 結果を大きくする5つのステップを通じて, フィッシングとスピア・フィッシングによる攻撃の実施方法についてレビューした。
論文 参考訳(メタデータ) (2020-05-31T18:10:09Z) - Overfitting in adversarially robust deep learning [86.11788847990783]
トレーニングセットへの過度な適合は、実際には、逆向きの堅牢なトレーニングにおいて、非常に大きなロバストなパフォーマンスを損なうことを示す。
また, 2重降下曲線のような効果は, 逆向きに訓練されたモデルでもまだ起こるが, 観測された過度なオーバーフィッティングを説明できないことを示す。
論文 参考訳(メタデータ) (2020-02-26T15:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。