論文の概要: Exploration and Exploitation in Federated Learning to Exclude Clients
with Poisoned Data
- arxiv url: http://arxiv.org/abs/2204.14020v1
- Date: Fri, 29 Apr 2022 11:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 15:08:10.575573
- Title: Exploration and Exploitation in Federated Learning to Exclude Clients
with Poisoned Data
- Title(参考訳): 有毒データを持つクライアントを除外する連合学習における探索と活用
- Authors: Shadha Tabatabai, Ihab Mohammed, Basheer Qolomany, Abdullatif
Albasser, Kashif Ahmad, Mohamed Abdallah, Ala Al-Fuqaha
- Abstract要約: フェデレートラーニング(FL)はホットな研究トピックのひとつです。
FLは、高い正確性を得ることの困難、クライアントとサーバ間の通信コストの高さ、敵MLに関連するセキュリティ攻撃など、多くの課題に直面している。
本稿では進化的手法にインスパイアされたFLアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.392682806893982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is one of the hot research topics, and it utilizes
Machine Learning (ML) in a distributed manner without directly accessing
private data on clients. However, FL faces many challenges, including the
difficulty to obtain high accuracy, high communication cost between clients and
the server, and security attacks related to adversarial ML. To tackle these
three challenges, we propose an FL algorithm inspired by evolutionary
techniques. The proposed algorithm groups clients randomly in many clusters,
each with a model selected randomly to explore the performance of different
models. The clusters are then trained in a repetitive process where the worst
performing cluster is removed in each iteration until one cluster remains. In
each iteration, some clients are expelled from clusters either due to using
poisoned data or low performance. The surviving clients are exploited in the
next iteration. The remaining cluster with surviving clients is then used for
training the best FL model (i.e., remaining FL model). Communication cost is
reduced since fewer clients are used in the final training of the FL model. To
evaluate the performance of the proposed algorithm, we conduct a number of
experiments using FEMNIST dataset and compare the result against the random FL
algorithm. The experimental results show that the proposed algorithm
outperforms the baseline algorithm in terms of accuracy, communication cost,
and security.
- Abstract(参考訳): フェデレートラーニング(FL)はホットな研究トピックのひとつで、クライアントのプライベートデータに直接アクセスすることなく、機械学習(ML)を分散的に利用する。
しかし、FLは、高い正確性、クライアントとサーバ間の通信コストの高さ、敵MLに関連するセキュリティ攻撃など、多くの課題に直面している。
この3つの課題に取り組むために,進化的手法に着想を得たflアルゴリズムを提案する。
提案アルゴリズムは多くのクラスタでランダムにクライアントをグループ化し、それぞれがランダムに選択され、異なるモデルの性能を探索する。
クラスタは反復的なプロセスでトレーニングされ、最もパフォーマンスの悪いクラスタは1つのクラスタが残るまで各イテレーションで削除される。
各イテレーションで、一部のクライアントは有毒データを使用するか低いパフォーマンスのためにクラスタから除外される。
生き残ったクライアントは次のイテレーションで利用されます。
生き残ったクライアントを持つ残りのクラスタは、最高のFLモデル(つまり残りのFLモデル)のトレーニングに使用される。
FLモデルの最終訓練で使用されるクライアントが少ないため、通信コストが削減される。
提案アルゴリズムの性能を評価するために,femnistデータセットを用いた実験を多数実施し,その結果をランダムflアルゴリズムと比較した。
実験の結果,提案アルゴリズムは,精度,通信コスト,セキュリティの観点から,ベースラインアルゴリズムよりも優れていた。
関連論文リスト
- Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - Optimizing the Collaboration Structure in Cross-Silo Federated Learning [43.388911479025225]
フェデレートラーニング(FL)では、複数のクライアントが協力して機械学習モデルをトレーニングする。
クライアントのクラスタ化による非重複連立への負の移動を緩和する新しいFLフレームワークであるFedCollabを提案する。
以上の結果から,FedCollabは広い範囲のFLアルゴリズムにまたがる負の転送を効果的に軽減し,クラスタリングされたFLアルゴリズムを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2023-06-10T18:59:50Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。