論文の概要: Reducing Communication Overhead in Federated Learning for Network Anomaly Detection with Adaptive Client Selection
- arxiv url: http://arxiv.org/abs/2503.15448v1
- Date: Wed, 19 Mar 2025 17:29:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:21:52.743952
- Title: Reducing Communication Overhead in Federated Learning for Network Anomaly Detection with Adaptive Client Selection
- Title(参考訳): 適応的クライアント選択によるネットワーク異常検出のためのフェデレーション学習における通信オーバヘッドの低減
- Authors: William Marfo, Deepak Tosh, Shirley Moore, Joshua Suetterlein, Joseph Manzano,
- Abstract要約: 連合学習(FL)における通信オーバーヘッドは,ネットワーク異常検出システムにおいて重要な課題となる。
本稿では,バッチサイズ最適化,クライアント選択,非同期更新を組み合わせた適応FLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Communication overhead in federated learning (FL) poses a significant challenge for network anomaly detection systems, where diverse client configurations and network conditions impact efficiency and detection accuracy. Existing approaches attempt optimization individually but struggle to balance reduced overhead with performance. This paper presents an adaptive FL framework combining batch size optimization, client selection, and asynchronous updates for efficient anomaly detection. Using UNSW-NB15 for general network traffic and ROAD for automotive networks, our framework reduces communication overhead by 97.6% (700.0s to 16.8s) while maintaining comparable accuracy (95.10% vs. 95.12%). The Mann-Whitney U test confirms significant improvements (p < 0.05). Profiling analysis reveals efficiency gains via reduced GPU operations and memory transfers, ensuring robust detection across varying client conditions.
- Abstract(参考訳): 統合学習(FL)における通信オーバーヘッドは、多様なクライアント構成とネットワーク条件が効率と検出精度に影響を与えるネットワーク異常検出システムにおいて重要な課題となる。
既存のアプローチでは、個別に最適化を試みるが、オーバーヘッド削減とパフォーマンスのバランスをとるのに苦労する。
本稿では,バッチサイズ最適化,クライアント選択,非同期更新を組み合わせた適応FLフレームワークを提案する。
一般的なネットワークトラフィックにUNSW-NB15、自動車ネットワークにROADを用い、通信オーバーヘッドを97.6%削減し(700.0sから16.8s)、同等の精度(95.10%対95.12%)を維持した。
Mann-Whitney U テストは大幅に改善されている(p < 0.05)。
プロファイリング分析により、GPU操作の削減とメモリ転送による効率の向上が明らかになり、さまざまなクライアント条件に対して堅牢な検出が保証される。
関連論文リスト
- Efficient Denial of Service Attack Detection in IoT using Kolmogorov-Arnold Networks [22.036794530902608]
本稿では,KAN(Kolmogorov-Arnold Networks)に基づくDoS攻撃検出の新しい軽量アプローチを提案する。
Kanは、最小限のリソース要件を維持しながら、最先端の検知性能を達成する。
既存のソリューションと比較して、kanは競合検出率を維持しながら、メモリ要求を最大98%削減する。
論文 参考訳(メタデータ) (2025-02-03T21:19:46Z) - Adaptive Client Selection in Federated Learning: A Network Anomaly Detection Use Case [0.30723404270319693]
本稿では,差分プライバシーとフォールトトレランスを組み込んだFL(Federated Learning)のクライアント選択フレームワークを提案する。
その結果、FedL2Pアプローチと比較して、精度が7%向上し、トレーニング時間が25%短縮された。
論文 参考訳(メタデータ) (2025-01-25T02:50:46Z) - Efficient Client Selection in Federated Learning [0.30723404270319693]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、分散機械学習を可能にする。
本稿では,差分プライバシーとフォールトトレランスを統合した新しいクライアント選択フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T02:43:55Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - HiFlash: Communication-Efficient Hierarchical Federated Learning with
Adaptive Staleness Control and Heterogeneity-aware Client-Edge Association [38.99309610943313]
フェデレートラーニング(FL)は、巨大なクライアント間で共有モデルを協調的に学習することのできる、有望なパラダイムである。
多くの既存のFLシステムでは、クライアントは大規模なデータサイズのモデルパラメータを、ワイドエリアネットワーク(WAN)を介してリモートクラウドサーバと頻繁に交換する必要がある。
我々は、モバイルエッジコンピューティングの利点を享受するHiFLの階層的フェデレーション学習パラダイムを活用している。
論文 参考訳(メタデータ) (2023-01-16T14:39:04Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。