論文の概要: Robust Federated Learning by Mixture of Experts
- arxiv url: http://arxiv.org/abs/2104.11700v1
- Date: Fri, 23 Apr 2021 16:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 14:03:04.739113
- Title: Robust Federated Learning by Mixture of Experts
- Title(参考訳): 専門家の混合によるロバスト連合学習
- Authors: Saeedeh Parsaeefard, Sayed Ehsan Etesami and Alberto Leon Garcia
- Abstract要約: We present a novel weighted average model based on the mixed of expert (MoE) concept to provide robustness in Federated learning (FL)。
実験の結果,moe-flは従来のアグリゲーション手法の性能を上回っており,攻撃者からの有毒データの割合が高かった。
- 参考スコア(独自算出の注目度): 5.936402320555635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel weighted average model based on the mixture of experts
(MoE) concept to provide robustness in Federated learning (FL) against the
poisoned/corrupted/outdated local models. These threats along with the non-IID
nature of data sets can considerably diminish the accuracy of the FL model. Our
proposed MoE-FL setup relies on the trust between users and the server where
the users share a portion of their public data sets with the server. The server
applies a robust aggregation method by solving the optimization problem or the
Softmax method to highlight the outlier cases and to reduce their adverse
effect on the FL process. Our experiments illustrate that MoE-FL outperforms
the performance of the traditional aggregation approach for high rate of
poisoned data from attackers.
- Abstract(参考訳): 本研究では, 有毒・腐食・アウトダイドの局所モデルに対するフェデレーション学習(fl)におけるロバスト性を提供するため, 専門家(moe)概念の混合に基づく新しい重み付け平均モデルを提案する。
これらの脅威とデータセットの非IIDの性質はFLモデルの精度を著しく低下させる。
提案したMoE-FLセットアップは,ユーザの公開データセットの一部をサーバと共有するサーバ間の信頼度に依存している。
サーバは、最適化問題やソフトマックス法を解くことでロバストアグリゲーション手法を適用し、外乱ケースを強調し、FLプロセスに対する悪影響を低減する。
実験の結果,MoE-FLはアタッカーによる高毒性データに対する従来のアグリゲーション手法よりも優れていた。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Resilience in Online Federated Learning: Mitigating Model-Poisoning Attacks via Partial Sharing [6.957420925496431]
フェデレートラーニング(FL)は、プライバシを損なうことなく、分散データ上で機械学習モデルをトレーニングすることを可能にする。
FLは、悪意のあるクライアントがローカルモデルを改ざんしてグローバルモデルを操作するような、モデル中毒攻撃に弱い。
本研究では,この攻撃に対する部分共有オンラインFL(PSO-Fed)アルゴリズムのレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-03-19T19:15:38Z) - Towards Reliable Participation in UAV-Enabled Federated Edge Learning on
Non-IID Data [22.775113283662883]
Federated Learning(FL)は、多くの参加者が共同でMLモデルをトレーニングできる、分散機械学習(ML)技術である。
FLは、悪意のあるUAVが有毒なローカルモデルをFLサーバーにアップロードする攻撃によって標的にすることができる。
本稿では,信頼性の高い高速UAVを優先することで収束性を高める新しいクライアント選択方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T10:35:06Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedPerm: Private and Robust Federated Learning by Parameter Permutation [2.406359246841227]
Federated Learning(FL)は、相互に信頼できないクライアントが共通の機械学習モデルを共同でトレーニングできるようにする分散学習パラダイムである。
クライアントデータのプライバシはFLで最重要である。同時に、モデルが敵のクライアントからの攻撃から保護されなければならない。
我々は、データプライバシを増幅する新しいモデル内パラメータシャッフル技術と、クライアントのモデル更新の暗号化集約を可能にするPrivate Information Retrieval(PIR)ベースの技術を組み合わせることで、これらの問題に対処する新しいFLアルゴリズムであるFedPermを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:40:28Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。