論文の概要: Evaluation of Federated Learning in Phishing Email Detection
- arxiv url: http://arxiv.org/abs/2007.13300v3
- Date: Fri, 21 May 2021 06:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 11:39:39.240781
- Title: Evaluation of Federated Learning in Phishing Email Detection
- Title(参考訳): フィッシングメール検出におけるフェデレーション学習の評価
- Authors: Chandra Thapa, Jun Wen Tang, Alsharif Abuadbba, Yansong Gao, Seyit
Camtepe, Surya Nepal, Mahathir Almashor, Yifeng Zheng
- Abstract要約: 本稿では、深層ニューラルネットワークモデル、特に、フィッシングメール検出のためのRNNとBERTに基づいて構築する。
FLの絡み合った学習性能を、バランスの取れたデータや非対称なデータ分布を含む様々な設定で分析する。
- 参考スコア(独自算出の注目度): 24.85352882358906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Artificial Intelligence (AI) to detect phishing emails is
primarily dependent on large-scale centralized datasets, which opens it up to a
myriad of privacy, trust, and legal issues. Moreover, organizations are loathed
to share emails, given the risk of leakage of commercially sensitive
information. So, it is uncommon to obtain sufficient emails to train a global
AI model efficiently. Accordingly, privacy-preserving distributed and
collaborative machine learning, particularly Federated Learning (FL), is a
desideratum. Already prevalent in the healthcare sector, questions remain
regarding the effectiveness and efficacy of FL-based phishing detection within
the context of multi-organization collaborations. To the best of our knowledge,
the work herein is the first to investigate the use of FL in email
anti-phishing. This paper builds upon a deep neural network model, particularly
RNN and BERT for phishing email detection. It analyzes the FL-entangled
learning performance under various settings, including balanced and
asymmetrical data distribution. Our results corroborate comparable performance
statistics of FL in phishing email detection to centralized learning for
balanced datasets, and low organization counts. Moreover, we observe a
variation in performance when increasing organizational counts. For a fixed
total email dataset, the global RNN based model suffers by a 1.8% accuracy drop
when increasing organizational counts from 2 to 10. In contrast, BERT accuracy
rises by 0.6% when going from 2 to 5 organizations. However, if we allow
increasing the overall email dataset with the introduction of new organizations
in the FL framework, the organizational level performance is improved by
achieving a faster convergence speed. Besides, FL suffers in its overall global
model performance due to highly unstable outputs if the email dataset
distribution is highly asymmetric.
- Abstract(参考訳): フィッシングメールを検出するためにAI(Artificial Intelligence)を使用することは、主に大規模な集中型データセットに依存しており、プライバシー、信頼、法的な問題に開放される。
さらに、商業的に機密性の高い情報の漏洩のリスクがあるため、組織はeメールの共有を待ち遠しい。
したがって、グローバルAIモデルを効率的にトレーニングするための十分な電子メールを取得することは珍しくありません。
したがって、プライバシを保存する分散および協調的な機械学習、特にフェデレートラーニング(FL)はデシプラタムである。
医療分野ではすでに広まっているが、マルチ組織コラボレーションのコンテキストにおけるflベースのフィッシング検出の有効性と有効性に関する疑問が残っている。
私たちの知る限りでは、メールのアンチフィッシングにおけるFLの使用を調査するのは今回が初めてです。
本稿では、深層ニューラルネットワークモデル、特に、フィッシングメール検出のためのRNNとBERTを構築する。
FLの絡み合った学習性能を、バランスと非対称なデータ分布を含む様々な設定で解析する。
フィッシングメール検出におけるflのパフォーマンス統計を,バランスのとれたデータセットの集中学習,組織数の減少などと比較した。
さらに,組織数の増加に伴うパフォーマンスの変化も観察する。
固定されたメールデータセットでは、グローバルRNNベースのモデルでは、組織数が2から10に増加すると、精度が1.8%低下する。
対照的にBERTの精度は2から5の組織に進むと0.6%上昇する。
しかし、FLフレームワークに新たな組織を導入することで、メールデータセット全体の増加を許容すれば、より高速な収束速度を実現することで、組織レベルのパフォーマンスが向上する。
さらに、flは、メールデータセットの分布が高度に非対称である場合、非常に不安定な出力のため、全体的なモデル性能に苦しんでいる。
関連論文リスト
- Fisher Information-based Efficient Curriculum Federated Learning with Large Language Models [43.26028399395612]
本稿では,2つの新しい手法を用いたフィッシャー情報に基づく効率的なカリキュラムフェデレート学習フレームワーク(FibecFed)を提案する。
まず,各装置内のデータを適応的にサンプリングし,FL微調整プロセスの有効性を向上させるための漁師情報に基づく手法を提案する。
第2に,グローバルアグリゲーションのための適切なレイヤとLoRAによるローカル更新のためのスパースパラメータを動的に選択する。
論文 参考訳(メタデータ) (2024-09-30T18:12:18Z) - Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - A Federated Learning-Friendly Approach for Parameter-Efficient Fine-Tuning of SAM in 3D Segmentation [5.011091042850546]
医用画像解析に基礎モデルを適用するには、かなりの量のデータでそれらを微調整する必要がある。
このような微調整のためのタスク固有の医療データを中央で収集することは、多くのプライバシー上の懸念を引き起こす。
フェデレーテッド・ラーニング(FL)は、プライベートな分散データをトレーニングするための効果的な手段を提供するが、大規模な基盤モデルをフェデレーテッドする際の通信コストは、すぐに重大なボトルネックとなる可能性がある。
論文 参考訳(メタデータ) (2024-07-31T16:48:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Profiler: Profile-Based Model to Detect Phishing Emails [15.109679047753355]
本稿では,攻撃者がメールに適応して検出を回避できる可能性を低減するために,メールの多次元リスク評価を提案する。
本研究では,(1)脅威レベル,(2)認知的操作,(3)電子メールタイプを分析する3つのモデルを含むリスクアセスメントフレームワークを開発する。
プロファイラは、MLアプローチと併用して、誤分類を減らしたり、トレーニング段階で大規模な電子メールデータセットのラベル付けとして使用することができる。
論文 参考訳(メタデータ) (2022-08-18T10:01:55Z) - Distributed Contrastive Learning for Medical Image Segmentation [16.3860181959878]
監視されたディープラーニングは、高いパフォーマンスを達成するために大量のラベル付きデータを必要とします。
医用画像解析では、各サイトは限られた量のデータとラベルしか持たず、学習を効果的にしない。
アノテーションを限定した医用画像セグメンテーションのための2つのフェデレーション型自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T20:47:05Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Privacy-Preserving Phishing Email Detection Based on Federated Learning
and LSTM [0.4588028371034407]
正しいように見えるフィッシングメールは、悪意のあるリンクやドキュメントをクリックして人々を誘惑する。
フェデレートフィッシングボウル(FPB)と呼ばれる分散型フィッシングメール検出手法を提案する。
FPBは、メールのセキュリティとプライバシを保護するために、さまざまなクライアント間で共通の知識表現と共有を可能にする。
論文 参考訳(メタデータ) (2021-10-12T14:17:38Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。