論文の概要: Adaptive Client Selection in Federated Learning: A Network Anomaly Detection Use Case
- arxiv url: http://arxiv.org/abs/2501.15038v1
- Date: Sat, 25 Jan 2025 02:50:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:58:53.359977
- Title: Adaptive Client Selection in Federated Learning: A Network Anomaly Detection Use Case
- Title(参考訳): フェデレーション学習における適応的クライアント選択:ネットワーク異常検出ユースケース
- Authors: William Marfo, Deepak K. Tosh, Shirley V. Moore,
- Abstract要約: 本稿では,差分プライバシーとフォールトトレランスを組み込んだFL(Federated Learning)のクライアント選択フレームワークを提案する。
その結果、FedL2Pアプローチと比較して、精度が7%向上し、トレーニング時間が25%短縮された。
- 参考スコア(独自算出の注目度): 0.30723404270319693
- License:
- Abstract: Federated Learning (FL) has become a widely used approach for training machine learning models on decentralized data, addressing the significant privacy concerns associated with traditional centralized methods. However, the efficiency of FL relies on effective client selection and robust privacy preservation mechanisms. Ineffective client selection can result in suboptimal model performance, while inadequate privacy measures risk exposing sensitive data. This paper introduces a client selection framework for FL that incorporates differential privacy and fault tolerance. The proposed adaptive approach dynamically adjusts the number of selected clients based on model performance and system constraints, ensuring privacy through the addition of calibrated noise. The method is evaluated on a network anomaly detection use case using the UNSW-NB15 and ROAD datasets. Results demonstrate up to a 7% improvement in accuracy and a 25% reduction in training time compared to the FedL2P approach. Additionally, the study highlights trade-offs between privacy budgets and model performance, with higher privacy budgets leading to reduced noise and improved accuracy. While the fault tolerance mechanism introduces a slight performance decrease, it enhances robustness against client failures. Statistical validation using the Mann-Whitney U test confirms the significance of these improvements, with results achieving a p-value of less than 0.05.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データ上で機械学習モデルをトレーニングするための広く使われているアプローチとなり、従来の集中型手法に関連する重要なプライバシー問題に対処している。
しかし、FLの効率性は、効果的なクライアント選択と堅牢なプライバシー保護機構に依存している。
非効率なクライアント選択は、最適でないモデルのパフォーマンスをもたらす可能性があるが、プライバシーが不十分なため機密データを侵害するリスクがある。
本稿では,差分プライバシーとフォールトトレランスを組み込んだFLクライアント選択フレームワークを提案する。
提案手法は,モデル性能とシステム制約に基づいて選択したクライアント数を動的に調整し,校正ノイズの追加によるプライバシ確保を実現する。
UNSW-NB15とROADデータセットを用いたネットワーク異常検出ユースケースで評価を行った。
その結果、FedL2Pアプローチと比較して、精度が7%向上し、トレーニング時間が25%短縮された。
さらにこの研究は、プライバシー予算とモデルパフォーマンスのトレードオフを強調し、より高いプライバシー予算がノイズの低減と精度の向上につながっている。
フォールトトレランスメカニズムはパフォーマンスをわずかに低下させるが、クライアントの障害に対する堅牢性を高める。
Mann-Whitney U テストを用いた統計的検証は、これらの改善の重要性を確認し、その結果は 0.05 未満の p-値となる。
関連論文リスト
- Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Efficient Client Selection in Federated Learning [0.30723404270319693]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、分散機械学習を可能にする。
本稿では,差分プライバシーとフォールトトレランスを統合した新しいクライアント選択フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T02:43:55Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - BACSA: A Bias-Aware Client Selection Algorithm for Privacy-Preserving Federated Learning in Wireless Healthcare Networks [0.5524804393257919]
本稿では,ユーザのバイアスを検知し,バイアスプロファイルに基づいてクライアントを戦略的に選択するBias-Aware Client Selection Algorithm (BACSA)を提案する。
BACSAは、Quality of Service(QoS)、プライバシ、セキュリティが最重要である、機密性の高い医療アプリケーションに適している。
論文 参考訳(メタデータ) (2024-11-01T21:34:43Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。