論文の概要: A Lightweight Defense Mechanism against Next Generation of Phishing Emails using Distilled Attention-Augmented BiLSTM
- arxiv url: http://arxiv.org/abs/2602.22250v1
- Date: Tue, 24 Feb 2026 20:06:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.326509
- Title: A Lightweight Defense Mechanism against Next Generation of Phishing Emails using Distilled Attention-Augmented BiLSTM
- Title(参考訳): 拡張BiLSTMを用いた次世代フィッシングメールに対する軽量防御機構
- Authors: Morteza Eskandarian, Mahdi Rabbani, Arun Kaniyamattam, Fatemeh Nejati, Mansur Mirani, Gunjan Piya, Igor Opushnyev, Ali A. Ghorbani, Sajjad Dadkhah,
- Abstract要約: MobileBERTの教師は、BiLSTMモデルに変形する前に微調整を受け、多面的な注意を払っている。
このシステムは、コンパクトなサイズを維持しながら、精度とレイテンシの点で優れた性能を示す。
本稿では,高交通条件下でのシステム性能とプライバシ保護のためのセキュリティ対策,運用展開のための実装方法について検討する。
- 参考スコア(独自算出の注目度): 34.0814379994364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current generation of large language models produces sophisticated social-engineering content that bypasses standard text screening systems in business communication platforms. Our proposed solution for mail gateway and endpoint deception detection operates in a privacy-protective manner while handling the performance requirements of network and mobile security systems. The MobileBERT teacher receives fine-tuning before its transformation into a BiLSTM model with multi-head attention which maintains semantic discrimination only with 4.5 million parameters. The hybrid dataset contains human-written messages together with LLM-generated paraphrases that use masking techniques and personalization methods to enhance modern attack resistance. The evaluation system uses five testing protocols which include human-only and LLM-only tests and two cross-distribution transfer tests and a production-like mixed traffic test to assess performance in native environments and across different distribution types and combined traffic scenarios. The distilled model maintains a weighted-F1 score difference of 1-2.5 points compared to the mixture split results of strong transformer baselines including ModernBERT, DeBERTaV3-base, T5-base, DeepSeek-R1 Distill Qwen-1.5B and Phi-4 mini while achieving 80-95\% faster inference times and 95-99\% smaller model sizes. The system demonstrates excellent performance in terms of accuracy and latency while maintaining a compact size which enables real-time filtering without acceleration hardware and supports policy-based management. The paper examines system performance under high traffic conditions and security measures for privacy protection and implementation methods for operational deployment.
- Abstract(参考訳): 現在の大規模言語モデルでは、ビジネスコミュニケーションプラットフォームにおける標準的なテキストスクリーニングシステムをバイパスする洗練されたソーシャルエンジニアリングコンテンツが生み出されている。
提案手法は,ネットワークおよびモバイルセキュリティシステムの性能要件を処理しながら,プライバシ保護方式でメールゲートウェイとエンドポイント偽造検出を行う。
MobileBERTの教師は、BiLSTMモデルに変換される前に微調整を受け、多面的な注意を払って、450万のパラメータで意味的識別を維持できる。
ハイブリッドデータセットは、現代の攻撃抵抗を高めるためにマスキング技術とパーソナライズ方法を使用するLLM生成パラフレーズとともに、人間によるメッセージを含む。
評価システムは、人間のみのテストとLLMのみのテストと2つのクロスディストリビューショントランスファーテストと、実運用ライクな混合トラフィックテストを含む5つのテストプロトコルを使用して、ネイティブ環境と異なる分散タイプ、および複合トラフィックシナリオのパフォーマンスを評価する。
本発明の蒸留モデルは、ModernBERT、DeBERTaV3-base、T5-base、DeepSeek-R1 Distill Qwen-1.5B、Phi-4 miniを含む強力なトランスフォーマーベースラインの混入結果と比較して、80〜95\%高速推論時間と95〜99\%小型モデルサイズとの重み付きF1スコア差を維持できる。
このシステムは,高速化ハードウェアを使わずにリアルタイムフィルタリングを可能にし,ポリシーベースの管理をサポートするコンパクトサイズを維持しつつ,精度とレイテンシの面で優れた性能を示す。
本稿では,高交通条件下でのシステム性能とプライバシ保護のためのセキュリティ対策,運用展開のための実装方法について検討する。
関連論文リスト
- Privacy-Preserving Offloading for Large Language Models in 6G Vehicular Networks [0.6524460254566904]
本稿では,6G vehicular ネットワークのための新しいプライバシ保護オフロードフレームワークを提案する。
ユーザデータを保護するために,フェデレートラーニング(FL)とディファレンシャルプライバシ(DP)技術を組み合わせたハイブリッドアプローチを導入する。
実験の結果,非プライバシ保存法に比べて75%の精度で2-3%の削減が達成できた。
論文 参考訳(メタデータ) (2025-08-30T10:08:28Z) - MCP-Guard: A Defense Framework for Model Context Protocol Integrity in Large Language Model Applications [21.70488724213541]
大規模言語モデルと外部ツールの統合は、重大なセキュリティ脆弱性をもたらす。
LLM-toolインタラクション用に設計されたロバストな層状防御アーキテクチャであるMPP-Guardを提案する。
MCP-AttackBenchも紹介します。
論文 参考訳(メタデータ) (2025-08-14T18:00:25Z) - T2V-OptJail: Discrete Prompt Optimization for Text-to-Video Jailbreak Attacks [67.91652526657599]
我々は、T2Vジェイルブレイク攻撃を離散最適化問題として定式化し、T2V-OptJailと呼ばれる共同目的ベース最適化フレームワークを提案する。
いくつかのT2Vモデルに対して大規模な実験を行い、オープンソースモデルと実際の商用クローズドソースモデルの両方をカバーする。
提案手法は,攻撃成功率の観点から既存手法よりも11.4%,10.0%向上する。
論文 参考訳(メタデータ) (2025-05-10T16:04:52Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - An Efficient Security Model for Industrial Internet of Things (IIoT) System Based on Machine Learning Principles [0.0]
本稿では、エッジデバイスが様々な内部および外部の脅威に対して防御するためのセキュリティパラダイムを提案する。
提案したセキュリティパラダイムは、様々な内部および外部の脅威に対して有効であり、低コストのシングルボードコンピュータに適用可能である。
論文 参考訳(メタデータ) (2025-02-10T14:20:13Z) - Efficient Federated Intrusion Detection in 5G ecosystem using optimized BERT-based model [0.7100520098029439]
5Gは高度なサービスを提供し、IoT(Internet of Things)内のインテリジェントトランスポート、コネクテッドヘルスケア、スマートシティなどのアプリケーションをサポートする。
これらの進歩は、ますます高度なサイバー攻撃を伴う、重大なセキュリティ上の課題をもたらす。
本稿では,連合学習と大規模言語モデル(LLM)を用いた頑健な侵入検知システム(IDS)を提案する。
論文 参考訳(メタデータ) (2024-09-28T15:56:28Z) - Federated Full-Parameter Tuning of Billion-Sized Language Models with Communication Cost under 18 Kilobytes [53.4856038354195]
事前訓練された大規模言語モデル(LLM)は、自然言語命令に対する応答性を改善するために微調整が必要である。
FedKSeedは、ランダムシードの有限セットによるゼロ階最適化を採用している。
サーバとクライアント間の通信要求を大幅に減らし、ランダムなシードをわずかに減らします。
論文 参考訳(メタデータ) (2023-12-11T13:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。