論文の概要: Is Shapley Value fair? Improving Client Selection for Mavericks in
Federated Learning
- arxiv url: http://arxiv.org/abs/2106.10734v1
- Date: Sun, 20 Jun 2021 18:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 07:46:55.008451
- Title: Is Shapley Value fair? Improving Client Selection for Mavericks in
Federated Learning
- Title(参考訳): Shapley Valueはフェアか?
フェデレーション学習におけるmavericksのクライアント選択の改善
- Authors: Jiyue Huang, Chi Hong, Lydia Y. Chen, Stefanie Roos
- Abstract要約: 私たちは、Shapley Valueが共通のタイプのクライアントであるMaverickの貢献を過小評価していることを示します。
我々は、ローカルデータとグローバルデータの間のワッサースタイン距離に基づく適応的なクライアント選択戦略であるFedEMDを提案する。
- 参考スコア(独自算出の注目度): 3.1116663844979775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shapley Value is commonly adopted to measure and incentivize client
participation in federated learning. In this paper, we show -- theoretically
and through simulations -- that Shapley Value underestimates the contribution
of a common type of client: the Maverick. Mavericks are clients that differ
both in data distribution and data quantity and can be the sole owners of
certain types of data. Selecting the right clients at the right moment is
important for federated learning to reduce convergence times and improve
accuracy. We propose FedEMD, an adaptive client selection strategy based on the
Wasserstein distance between the local and global data distributions. As FedEMD
adapts the selection probability such that Mavericks are preferably selected
when the model benefits from improvement on rare classes, it consistently
ensures the fast convergence in the presence of different types of Mavericks.
Compared to existing strategies, including Shapley Value-based ones, FedEMD
improves the convergence of neural network classifiers by at least 26.9% for
FedAvg aggregation compared with the state of the art.
- Abstract(参考訳): shapleyの値は一般的に、連合学習における顧客参加の計測とインセンティブとして採用されている。
本稿では、理論的およびシミュレーションを通して、Shapley Valueが共通のタイプのクライアントであるMaverickの貢献を過小評価していることを示す。
Mavericksはデータ分散とデータ量の両方が異なるクライアントであり、特定のタイプのデータの唯一の所有者である。
適切なタイミングで適切なクライアントを選択することは、フェデレーション学習において、収束時間を短縮し、精度を向上させるために重要である。
我々は、ローカルデータとグローバルデータの間のワッサースタイン距離に基づく適応的なクライアント選択戦略であるFedEMDを提案する。
FedEMDは、希少なクラスの改善によりモデルが恩恵を受けるとき、マベリックが選択されることが好ましい選択確率に適応するため、異なる種類のマベリックの存在下での高速収束を一貫して保証する。
Shapley Valueベースのものを含む既存の戦略と比較して、FedEMDはFedAvgアグリゲーションに対して少なくとも26.9%のニューラルネットワーク分類器の収束を改善している。
関連論文リスト
- TPFL: Tsetlin-Personalized Federated Learning with Confidence-Based Clustering [0.0]
本稿では,Tsetlin-Personalized Federated Learningと呼ばれる新しい手法を提案する。
このように、モデルは特定のクラスに対する信頼性に基づいてクラスタにグループ化される。
クライアントは信頼しているものだけを共有し、結果として誤った重み付けが排除される。
その結果、TPFLはMNISTで98.94%、FashionMNISTで98.52%、FEMNISTデータセットで91.16%の精度でベースライン法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-16T15:27:35Z) - SFedCA: Credit Assignment-Based Active Client Selection Strategy for Spiking Federated Learning [15.256986486372407]
フェデレーション学習のスパイクにより、リソースに制約のあるデバイスは、ローカルデータを交換することなく、低消費電力で協調的にトレーニングできる。
既存のスパイキングフェデレーション学習手法では、クライアントのアグリゲーションに対してランダムな選択アプローチを採用しており、不偏なクライアントの参加を前提としている。
本研究では,グローバルなサンプル分布バランスに寄与するクライアントを鑑定するために,クレジット割当に基づくアクティブクライアント選択戦略であるSFedCAを提案する。
論文 参考訳(メタデータ) (2024-06-18T01:56:22Z) - Maverick-Aware Shapley Valuation for Client Selection in Federated Learning [17.566665394587744]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
本稿では,各ラウンドで最も貢献するクライアントをインテリジェントに選択するFL用Maverick-Shapleyクライアント選択機構を提案する。
ベースラインの広範なリストと比較して、FedMSはより優れたモデル性能とより公平なShapley Rewards分布を達成する。
論文 参考訳(メタデータ) (2024-05-21T08:34:39Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Blockchain-based Optimized Client Selection and Privacy Preserved
Framework for Federated Learning [2.4201849657206496]
フェデレートラーニング(Federated Learning)は、大規模ニューラルネットワークモデルをトレーニングする分散メカニズムで、複数のクライアントが参加する。
この機能により、フェデレーション学習はデータのプライバシー問題に対するセキュアなソリューションとみなされる。
ブロックチェーンベースの最適化クライアント選択とプライバシ保護フレームワークを提案しました。
論文 参考訳(メタデータ) (2023-07-25T01:35:51Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。