論文の概要: Every Character Counts: From Vulnerability to Defense in Phishing Detection
- arxiv url: http://arxiv.org/abs/2509.20589v1
- Date: Wed, 24 Sep 2025 22:03:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.605592
- Title: Every Character Counts: From Vulnerability to Defense in Phishing Detection
- Title(参考訳): フィッシング検出における脆弱性から防御まで
- Authors: Maria Chiper, Radu Tudor Ionescu,
- Abstract要約: 組織と個人の両方をターゲットにしたフィッシング攻撃は、ますます重大な脅威になりつつある。
現在の自動検出法は、しばしば新しいフィッシング攻撃を検出するための説明性や堅牢性を欠いている。
本研究では,フィッシング検出における文字レベル深層学習モデルの有効性について検討する。
- 参考スコア(独自算出の注目度): 22.101976874889147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Phishing attacks targeting both organizations and individuals are becoming an increasingly significant threat as technology advances. Current automatic detection methods often lack explainability and robustness in detecting new phishing attacks. In this work, we investigate the effectiveness of character-level deep learning models for phishing detection, which can provide both robustness and interpretability. We evaluate three neural architectures adapted to operate at the character level, namely CharCNN, CharGRU, and CharBiLSTM, on a custom-built email dataset, which combines data from multiple sources. Their performance is analyzed under three scenarios: (i) standard training and testing, (ii) standard training and testing under adversarial attacks, and (iii) training and testing with adversarial examples. Aiming to develop a tool that operates as a browser extension, we test all models under limited computational resources. In this constrained setup, CharGRU proves to be the best-performing model across all scenarios. All models show vulnerability to adversarial attacks, but adversarial training substantially improves their robustness. In addition, by adapting the Gradient-weighted Class Activation Mapping (Grad-CAM) technique to character-level inputs, we are able to visualize which parts of each email influence the decision of each model. Our open-source code and data is released at https://github.com/chipermaria/every-character-counts.
- Abstract(参考訳): 技術が進歩するにつれて、組織と個人の両方を標的とするフィッシング攻撃はますます重大な脅威になりつつある。
現在の自動検出法は、しばしば新しいフィッシング攻撃を検出するための説明性や堅牢性を欠いている。
本研究では,フィッシング検出における文字レベル深層学習モデルの有効性を検討した。
我々は、複数のソースからのデータを組み合わせたカスタム電子メールデータセットを用いて、CharCNN、CharGRU、CharBiLSTMという文字レベルでの動作に適応した3つのニューラルアーキテクチャを評価した。
パフォーマンスは3つのシナリオで分析されます。
(i)標準の訓練・試験
二 敵の攻撃を受けた場合の標準訓練及び試験
三 相手の例による訓練及び試験
ブラウザ拡張として動作するツールの開発を目的として,限られた計算資源の下で全てのモデルをテストする。
この制約された設定では、CharGRUはすべてのシナリオで最高のパフォーマンスモデルであることが証明されている。
全てのモデルは敵の攻撃に対する脆弱性を示すが、敵の訓練は敵の堅牢性を大幅に改善する。
さらに、文字レベルの入力にグラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)技術を適用することにより、各Eメールのどの部分が各モデルの判断に影響を及ぼすかを可視化することができる。
当社のオープンソースコードとデータはhttps://github.com/chipermaria/every-character-counts.comで公開されています。
関連論文リスト
- A Sophisticated Framework for the Accurate Detection of Phishing Websites [0.0]
フィッシング(英: Phishing)は、ますます洗練されたサイバー攻撃形態であり、世界中の企業に巨額の経済的損害を与えている。
本稿では,フィッシングサイトを検出するための包括的手法を提案する。
特徴選択, 欲求アルゴリズム, クロスバリデーション, 深層学習を組み合わせて, 洗練された積み重ねアンサンブルを構築している。
論文 参考訳(メタデータ) (2024-03-13T14:26:25Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Btech thesis report on adversarial attack detection and purification of
adverserially attacked images [0.0]
本論文は, 負の攻撃を受けた画像の検出と浄化に関するものである。
ディープラーニングモデルは、分類、回帰などの様々なタスクのための特定のトレーニング例に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-09T09:24:11Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z) - Classification Auto-Encoder based Detector against Diverse Data
Poisoning Attacks [7.150136251781658]
毒殺攻撃は、敵対的な機械学習の脅威のカテゴリである。
本稿では,有毒データに対する分類オートエンコーダを用いた検出器であるCAEを提案する。
CAEの強化版(CAE+と呼ばれる)では、防御モデルをトレーニングするためにクリーンなデータセットを使わなくてもよいことを示す。
論文 参考訳(メタデータ) (2021-08-09T17:46:52Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。