論文の概要: FedSA: Accelerating Intrusion Detection in Collaborative Environments
with Federated Simulated Annealing
- arxiv url: http://arxiv.org/abs/2205.11519v1
- Date: Mon, 23 May 2022 14:27:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 15:24:07.423285
- Title: FedSA: Accelerating Intrusion Detection in Collaborative Environments
with Federated Simulated Annealing
- Title(参考訳): FedSA:Federated Simulated Annealingを用いた協調環境における侵入検出の高速化
- Authors: Helio N. Cunha Neto, Ivana Dusparic, Diogo M. F. Mattos, and Natalia
C. Fernandes
- Abstract要約: 侵入検知システム(IDS)における協調学習のソリューションとしてのフェデレーション学習
本稿では,フェデレーテッド・シミュレート・アニーリング(FedSA)メタヒューリスティック(メタヒューリスティック)を提案し,フェデレーテッド・ラーニングにおける各アグリゲーションラウンドにおける参加者のハイパーパラメータとサブセットを選択する。
この提案では、従来のアグリゲーションアプローチよりも攻撃検出の精度が約97%向上するために、アグリゲーションラウンドを最大50%削減する必要がある。
- 参考スコア(独自算出の注目度): 2.7011265453906983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast identification of new network attack patterns is crucial for improving
network security. Nevertheless, identifying an ongoing attack in a
heterogeneous network is a non-trivial task. Federated learning emerges as a
solution to collaborative training for an Intrusion Detection System (IDS). The
federated learning-based IDS trains a global model using local machine learning
models provided by federated participants without sharing local data. However,
optimization challenges are intrinsic to federated learning. This paper
proposes the Federated Simulated Annealing (FedSA) metaheuristic to select the
hyperparameters and a subset of participants for each aggregation round in
federated learning. FedSA optimizes hyperparameters linked to the global model
convergence. The proposal reduces aggregation rounds and speeds up convergence.
Thus, FedSA accelerates learning extraction from local models, requiring fewer
IDS updates. The proposal assessment shows that the FedSA global model
converges in less than ten communication rounds. The proposal requires up to
50% fewer aggregation rounds to achieve approximately 97% accuracy in attack
detection than the conventional aggregation approach.
- Abstract(参考訳): 新しいネットワーク攻撃パターンの迅速な識別は、ネットワークセキュリティの改善に不可欠である。
それでも、ヘテロジニアスネットワークで進行中のアタックの特定は、非自明なタスクです。
統合学習は、侵入検知システム(IDS)の協調訓練の解決策として現れる。
フェデレーション学習に基づくidは、ローカルデータを共有せずに、フェデレーション参加者が提供したローカル機械学習モデルを使用してグローバルモデルをトレーニングする。
しかし、最適化の課題は連合学習に固有のものである。
本稿では,federated simulated annealing (fedsa) メタヒューリスティックを用いて,連合学習における各アグリゲーションラウンドのハイパーパラメータと参加者のサブセットを選択する。
FedSAは、グローバルモデル収束に関連するハイパーパラメータを最適化する。
この提案は集約ラウンドを減らし、収束を早める。
したがって、FedSAはローカルモデルからの学習抽出を加速し、IDS更新を少なくする。
提案手法は,FedSAグローバルモデルが10回未満の通信ラウンドに収束していることを示す。
従来のアグリゲーションアプローチよりも,攻撃検出精度が約97%向上するためには,最大50%のアグリゲーションラウンドが必要となる。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - FedLPA: Personalized One-shot Federated Learning with Layer-Wise
Posterior Aggregation [7.406222956685339]
ローカルクライアントからグローバルモデルへのトレーニングされたニューラルネットワークのワンショットアグリゲーションは、研究者の間で人気を集めている。
我々はFedLPAという名前のレイヤーワイズ後アグリゲーションを用いたワンショットアグリゲーション手法を提案する。
以上の結果から,FedLPAは最先端の手法よりも学習性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-09-30T10:51:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Magnitude Matters: Fixing SIGNSGD Through Magnitude-Aware Sparsification
in the Presence of Data Heterogeneity [60.791736094073]
通信オーバーヘッドは、ディープニューラルネットワークの分散トレーニングにおいて、大きなボトルネックのひとつになっています。
本稿では,SIGNSGDの非収束問題に対処する等級化方式を提案する。
提案手法は,Fashion-MNIST, CIFAR-10, CIFAR-100データセットを用いて検証した。
論文 参考訳(メタデータ) (2023-02-19T17:42:35Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Speeding up Heterogeneous Federated Learning with Sequentially Trained
Superclients [19.496278017418113]
フェデレートラーニング(FL)は、ローカルなデータ共有を必要とせず、エッジデバイスの協調を可能にすることにより、プライバシに制約のあるシナリオで機械学習モデルをトレーニングすることを可能にする。
このアプローチは、ローカルデータセットとクライアントの計算的不均一性の異なる統計分布のために、いくつかの課題を提起する。
我々は、多種多様なクライアント、すなわちスーパークオリエントの部分グループのシーケンシャルトレーニングを活用して、集中型パラダイムをプライバシに準拠した方法でエミュレートする新しいフレームワークであるFedSeqを提案する。
論文 参考訳(メタデータ) (2022-01-26T12:33:23Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - FedSAE: A Novel Self-Adaptive Federated Learning Framework in
Heterogeneous Systems [14.242716751043533]
Federated Learning(FL)は、何千ものエッジデバイスがデータをサーバに同心的にアップロードすることなく、ローカルにモデルをトレーニングできる、新しい分散機械学習である。
我々は、デバイスの自動トレーニングタスクを調整する新しい自己適応型フェデレーションフレームワークFedSAEを導入し、参加者を積極的に選択してパフォーマンス劣化を緩和する。
このフレームワークでは、サーバは、トレーニング損失に基づいて、デバイスのトレーニング値を評価する。
その後、サーバは、通信のオーバーヘッドを減らすために、グローバルモデルにより大きな価値を持つクライアントを選択する。
論文 参考訳(メタデータ) (2021-04-15T15:14:11Z) - Federated Learning with Communication Delay in Edge Networks [5.500965885412937]
フェデレーション学習は、エッジネットワークを通じて機械学習(ML)モデルのトレーニングを分散する潜在的なソリューションとして、大きな注目を集めている。
この研究は、エッジノードとアグリゲータ間の通信遅延という、ネットワークエッジにおけるフェデレーション学習の重要な考慮事項に対処する。
FedDelAvg(フェデレート遅延平均化)と呼ばれる手法が開発され、標準フェデレーション平均化アルゴリズムを一般化し、同期ステップ中に各デバイスで受信した現在のローカルモデルと遅延グローバルモデルとの重み付けを組み込む。
論文 参考訳(メタデータ) (2020-08-21T06:21:35Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Free-rider Attacks on Model Aggregation in Federated Learning [10.312968200748116]
本稿では,反復パラメータアグリゲーションに基づくフェデレーション学習スキームに対するフリーライダー攻撃の理論的および実験的解析について紹介する。
我々は、これらの攻撃が公正な参加者の集約されたモデルに収束することを正式に保証する。
我々は,フェデレートラーニングの現実的応用において,フリーライダー攻撃を避けるための勧告を提供することで結論付けた。
論文 参考訳(メタデータ) (2020-06-21T20:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。