論文の概要: Evaluation of Federated Learning in Phishing Email Detection
- arxiv url: http://arxiv.org/abs/2007.13300v3
- Date: Fri, 21 May 2021 06:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 11:39:39.240781
- Title: Evaluation of Federated Learning in Phishing Email Detection
- Title(参考訳): フィッシングメール検出におけるフェデレーション学習の評価
- Authors: Chandra Thapa, Jun Wen Tang, Alsharif Abuadbba, Yansong Gao, Seyit
Camtepe, Surya Nepal, Mahathir Almashor, Yifeng Zheng
- Abstract要約: 本稿では、深層ニューラルネットワークモデル、特に、フィッシングメール検出のためのRNNとBERTに基づいて構築する。
FLの絡み合った学習性能を、バランスの取れたデータや非対称なデータ分布を含む様々な設定で分析する。
- 参考スコア(独自算出の注目度): 24.85352882358906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Artificial Intelligence (AI) to detect phishing emails is
primarily dependent on large-scale centralized datasets, which opens it up to a
myriad of privacy, trust, and legal issues. Moreover, organizations are loathed
to share emails, given the risk of leakage of commercially sensitive
information. So, it is uncommon to obtain sufficient emails to train a global
AI model efficiently. Accordingly, privacy-preserving distributed and
collaborative machine learning, particularly Federated Learning (FL), is a
desideratum. Already prevalent in the healthcare sector, questions remain
regarding the effectiveness and efficacy of FL-based phishing detection within
the context of multi-organization collaborations. To the best of our knowledge,
the work herein is the first to investigate the use of FL in email
anti-phishing. This paper builds upon a deep neural network model, particularly
RNN and BERT for phishing email detection. It analyzes the FL-entangled
learning performance under various settings, including balanced and
asymmetrical data distribution. Our results corroborate comparable performance
statistics of FL in phishing email detection to centralized learning for
balanced datasets, and low organization counts. Moreover, we observe a
variation in performance when increasing organizational counts. For a fixed
total email dataset, the global RNN based model suffers by a 1.8% accuracy drop
when increasing organizational counts from 2 to 10. In contrast, BERT accuracy
rises by 0.6% when going from 2 to 5 organizations. However, if we allow
increasing the overall email dataset with the introduction of new organizations
in the FL framework, the organizational level performance is improved by
achieving a faster convergence speed. Besides, FL suffers in its overall global
model performance due to highly unstable outputs if the email dataset
distribution is highly asymmetric.
- Abstract(参考訳): フィッシングメールを検出するためにAI(Artificial Intelligence)を使用することは、主に大規模な集中型データセットに依存しており、プライバシー、信頼、法的な問題に開放される。
さらに、商業的に機密性の高い情報の漏洩のリスクがあるため、組織はeメールの共有を待ち遠しい。
したがって、グローバルAIモデルを効率的にトレーニングするための十分な電子メールを取得することは珍しくありません。
したがって、プライバシを保存する分散および協調的な機械学習、特にフェデレートラーニング(FL)はデシプラタムである。
医療分野ではすでに広まっているが、マルチ組織コラボレーションのコンテキストにおけるflベースのフィッシング検出の有効性と有効性に関する疑問が残っている。
私たちの知る限りでは、メールのアンチフィッシングにおけるFLの使用を調査するのは今回が初めてです。
本稿では、深層ニューラルネットワークモデル、特に、フィッシングメール検出のためのRNNとBERTを構築する。
FLの絡み合った学習性能を、バランスと非対称なデータ分布を含む様々な設定で解析する。
フィッシングメール検出におけるflのパフォーマンス統計を,バランスのとれたデータセットの集中学習,組織数の減少などと比較した。
さらに,組織数の増加に伴うパフォーマンスの変化も観察する。
固定されたメールデータセットでは、グローバルRNNベースのモデルでは、組織数が2から10に増加すると、精度が1.8%低下する。
対照的にBERTの精度は2から5の組織に進むと0.6%上昇する。
しかし、FLフレームワークに新たな組織を導入することで、メールデータセット全体の増加を許容すれば、より高速な収束速度を実現することで、組織レベルのパフォーマンスが向上する。
さらに、flは、メールデータセットの分布が高度に非対称である場合、非常に不安定な出力のため、全体的なモデル性能に苦しんでいる。
関連論文リスト
- Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Profiler: Profile-Based Model to Detect Phishing Emails [15.109679047753355]
本稿では,攻撃者がメールに適応して検出を回避できる可能性を低減するために,メールの多次元リスク評価を提案する。
本研究では,(1)脅威レベル,(2)認知的操作,(3)電子メールタイプを分析する3つのモデルを含むリスクアセスメントフレームワークを開発する。
プロファイラは、MLアプローチと併用して、誤分類を減らしたり、トレーニング段階で大規模な電子メールデータセットのラベル付けとして使用することができる。
論文 参考訳(メタデータ) (2022-08-18T10:01:55Z) - Distributed Contrastive Learning for Medical Image Segmentation [16.3860181959878]
監視されたディープラーニングは、高いパフォーマンスを達成するために大量のラベル付きデータを必要とします。
医用画像解析では、各サイトは限られた量のデータとラベルしか持たず、学習を効果的にしない。
アノテーションを限定した医用画像セグメンテーションのための2つのフェデレーション型自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T20:47:05Z) - Communication-Efficient Diffusion Strategy for Performance Improvement
of Federated Learning with Non-IID Data [10.112913394578703]
フェデレートラーニング(FL)は、集中学習におけるプライバシー漏洩問題に対処する新しい学習パラダイムである。
FLでは,非独立かつ同一に分散した(非IID)特性を持つユーザは,グローバルモデルの性能を低下させる可能性がある。
非IIDデータを用いたFL性能を最大化するために,機械学習モデル(FedDif)の新たな拡散戦略を提案する。
論文 参考訳(メタデータ) (2022-07-15T14:28:41Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Towards Understanding Quality Challenges of the Federated Learning: A
First Look from the Lens of Robustness [4.822471415125479]
Federated Learning(FL)は、すべての参加者のデータセット全体をトレーニングに活用しながら、ユーザのデータのプライバシを保護することを目的としている。
FLは依然として攻撃やビザンチン障害などの品質問題に悩まされる傾向にある。
本報告では,攻撃・故障発生におけるSOTA(State-of-the-art)の強靭なFL手法の有効性について検討する。
論文 参考訳(メタデータ) (2022-01-05T02:06:39Z) - Privacy-Preserving Phishing Email Detection Based on Federated Learning
and LSTM [0.4588028371034407]
正しいように見えるフィッシングメールは、悪意のあるリンクやドキュメントをクリックして人々を誘惑する。
フェデレートフィッシングボウル(FPB)と呼ばれる分散型フィッシングメール検出手法を提案する。
FPBは、メールのセキュリティとプライバシを保護するために、さまざまなクライアント間で共通の知識表現と共有を可能にする。
論文 参考訳(メタデータ) (2021-10-12T14:17:38Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。