論文の概要: Anti-Phishing Training (Still) Does Not Work: A Large-Scale Reproduction of Phishing Training Inefficacy Grounded in the NIST Phish Scale
- arxiv url: http://arxiv.org/abs/2506.19899v2
- Date: Mon, 01 Sep 2025 16:09:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 14:24:52.464097
- Title: Anti-Phishing Training (Still) Does Not Work: A Large-Scale Reproduction of Phishing Training Inefficacy Grounded in the NIST Phish Scale
- Title(参考訳): フィッシングトレーニング(スティル)は機能しない:NISTフィッシュスケールにおけるフィッシングトレーニング非効率の大規模再現
- Authors: Andrew T. Rozema, James C. Davis,
- Abstract要約: フィッシング(英: phishing)として知られる電子メールで配信される社会工学的攻撃は、永続的なサイバーセキュリティの脅威を表している。
多くの組織は、コンプライアンス要件によって強制されるフィッシングで従業員を訓練するが、このトレーニングの現実的な効果については議論が続いている。
我々は、エビデンスベースのサイバーセキュリティ政策に貢献するために、米国拠点の金融技術企業で大規模な再生調査を行った。
- 参考スコア(独自算出の注目度): 6.661890986344375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Social engineering attacks delivered via email, commonly known as phishing, represent a persistent cybersecurity threat leading to significant organizational incidents and data breaches. Although many organizations train employees on phishing, often mandated by compliance requirements, the real-world effectiveness of this training remains debated. To contribute to evidence-based cybersecurity policy, we conducted a large-scale reproduction study (N = 12,511) at a US-based financial technology firm. Our experimental design refined prior work by comparing training modalities in operational environments, validating NIST's standardized phishing difficulty measurement, and introducing novel organizational-level temporal resilience metrics. Echoing prior work, training interventions showed no significant main effects on click rates (p=0.450) or reporting rates (p=0.417), with negligible effect sizes. However, we found that the NIST Phish Scale predicted user behavior, with click rates increasing from 7.0% for easy lures to 15.0% for hard lures. Our organizational-level resilience result was mixed: 36-55% of campaigns achieved "inoculation" patterns where reports preceded clicks, but training did not significantly improve organizational-level temporal protection. In summary, our results confirm the ineffectiveness of current phishing training approaches while offering a refined study design for future work.
- Abstract(参考訳): フィッシング(英: phishing)として知られる電子メールによる社会工学的攻撃は、組織的な重大なインシデントやデータ漏洩につながる永続的なサイバーセキュリティの脅威を表している。
多くの組織はフィッシングで従業員を訓練しているが、コンプライアンス要件によって強制されることが多い。
我々は,エビデンスベースのサイバーセキュリティ政策に貢献するため,米国拠点の金融技術会社で大規模再生研究(N = 12,511)を行った。
実験では,運用環境におけるトレーニングのモダリティを比較し,NISTの標準化されたフィッシング難度測定を検証し,新しい組織レベルの時間的レジリエンス指標を導入した。
以前の研究で、トレーニング介入はクリック率 (p=0.450) や報告率 (p=0.417) に有意な影響を示さなかった。
しかし、NIST Phish Scaleは、クリック率を7.0%から15.0%に引き上げた。
36~55%のキャンペーンが、報告がクリックに先行する"接種"パターンを達成したが、トレーニングは組織レベルの時間的保護を著しく改善しなかった。
要約して,本研究は今後の研究に洗練された研究デザインを提供しながら,現在のフィッシングトレーニング手法の非効率性を確認した。
関連論文リスト
- AdaPhish: AI-Powered Adaptive Defense and Education Resource Against Deceptive Emails [0.0]
AdaPhishはAIを利用してフィッシングメールを自動的に匿名化し分析するフィッシュボウルプラットフォームだ。
フィッシングトレンドの長期追跡を可能にしながら、新しいフィッシング戦術へのリアルタイム検出と適応を実現している。
AdaPhishは、フィッシング検出とサイバーセキュリティ教育のためのスケーラブルでコラボレーティブなソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-05T21:17:19Z) - PEEK: Phishing Evolution Framework for Phishing Generation and Evolving Pattern Analysis using Large Language Models [10.455333111937598]
フィッシングはいまだに広範囲にわたるサイバー脅威であり、攻撃者は詐欺メールを使って被害者を誘惑し、機密情報を暴露している。
深層学習はフィッシング攻撃に対する防御において重要な要素となっているが、これらのアプローチは重大な制限に直面している。
フィッシングメールデータセットの質と多様性を向上するためのPEEK(Phishing Evolution FramEworK)を提案する。
論文 参考訳(メタデータ) (2024-11-18T09:03:51Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - An Innovative Information Theory-based Approach to Tackle and Enhance The Transparency in Phishing Detection [23.962076093344166]
フィッシングアタックローカライゼーションのための革新的な深層学習手法を提案する。
本手法は,メールデータの脆弱性を予測するだけでなく,最も重要なフィッシング関連情報を自動的に学習し,発見する。
論文 参考訳(メタデータ) (2024-02-27T00:03:07Z) - A Study of Different Awareness Campaigns in a Company [0.0]
フィッシング(英: Phishing)は、金融や評判を損なう可能性のある組織にとって、大きなサイバー脅威である。
本稿では,意識概念をうまく実装し,検証する方法について検討する。
論文 参考訳(メタデータ) (2023-08-29T09:57:11Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - SoK: Human-Centered Phishing Susceptibility [4.794822439017277]
フィッシングの検出と防止に人間がどう関わっているかを説明する3段階のフィッシング・サセプティビリティ・モデル(PSM)を提案する。
このモデルは、ユーザの検出性能を改善するために対処する必要があるいくつかの研究ギャップを明らかにする。
論文 参考訳(メタデータ) (2022-02-16T07:26:53Z) - On the Impact of Hard Adversarial Instances on Overfitting in Adversarial Training [70.82725772926949]
敵の訓練は、敵の攻撃に対してモデルを強固にするための一般的な方法である。
本研究では,この現象をトレーニングインスタンスの観点から検討する。
逆行訓練における一般化性能の低下は、ハード・逆行例に適合した結果であることを示す。
論文 参考訳(メタデータ) (2021-12-14T12:19:24Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z) - Phishing and Spear Phishing: examples in Cyber Espionage and techniques
to protect against them [91.3755431537592]
フィッシング攻撃は、2012年以降、サイバー攻撃の91%以上を突破し、オンライン詐欺で最も使われているテクニックとなっている。
本研究は, フィッシングとスピア・フィッシングによる攻撃が, 結果を大きくする5つのステップを通じて, フィッシングとスピア・フィッシングによる攻撃の実施方法についてレビューした。
論文 参考訳(メタデータ) (2020-05-31T18:10:09Z) - Overfitting in adversarially robust deep learning [86.11788847990783]
トレーニングセットへの過度な適合は、実際には、逆向きの堅牢なトレーニングにおいて、非常に大きなロバストなパフォーマンスを損なうことを示す。
また, 2重降下曲線のような効果は, 逆向きに訓練されたモデルでもまだ起こるが, 観測された過度なオーバーフィッティングを説明できないことを示す。
論文 参考訳(メタデータ) (2020-02-26T15:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。