論文の概要: Mitigating federated learning contribution allocation instability through randomized aggregation
- arxiv url: http://arxiv.org/abs/2405.08044v2
- Date: Thu, 19 Dec 2024 16:08:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:28:17.982016
- Title: Mitigating federated learning contribution allocation instability through randomized aggregation
- Title(参考訳): ランダムアグリゲーションによるフェデレーション・コントリビューションの不安定化
- Authors: Arno Geimer, Beltran Fiz, Radu State,
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、協調型およびプライバシ保護型機械学習パラダイムである。
FLにおける重要な課題は、多様な参加者からの貢献を公平かつ正確に割り当てることにある。
不正確な割り当ては信頼を損なう可能性があり、不公平な補償につながるため、参加者は連合への参加または積極的に貢献するインセンティブを欠く可能性がある。
- 参考スコア(独自算出の注目度): 1.827018440608344
- License:
- Abstract: Federated learning (FL) is a collaborative and privacy-preserving Machine Learning paradigm, allowing the development of robust models without the need to centralise sensitive data. A critical challenge in FL lies in fairly and accurately allocating contributions from diverse participants. Inaccurate allocation can undermine trust, lead to unfair compensation, and thus participants may lack the incentive to join or actively contribute to the federation. Various remuneration strategies have been proposed to date, including auction-based approaches and Shapley-value based methods, the latter offering a means to quantify the contribution of each participant. However, little to no work has studied the stability of these contribution evaluation methods. In this paper, we focus on calculating contributions using gradient-based model reconstruction techniques with Shapley values. We first show that baseline Shapley values do not accurately reflect clients' contributions, leading to unstable reward allocations amongst participants in a cross-silo federation. We then introduce \textsc{FedRandom}, a new method that mitigates these shortcomings with additional data samplings, and show its efficacy at increasing the stability of contribution evaluation in federated learning.
- Abstract(参考訳): Federated Learning(FL)は、協調的かつプライバシ保護の機械学習パラダイムであり、センシティブなデータを集中化することなく、堅牢なモデルの開発を可能にする。
FLにおける重要な課題は、多様な参加者からの貢献を公平かつ正確に割り当てることにある。
不正確な割り当ては信頼を損なう可能性があり、不公平な補償につながるため、参加者は連合への参加または積極的に貢献するインセンティブを欠く可能性がある。
オークションベースのアプローチやシェープ価値に基づく手法など、様々な報酬戦略が提案されているが、後者は参加者の貢献を定量化する手段を提供している。
しかし,これらのコントリビューション評価手法の安定性についてはほとんど研究されていない。
本稿では,シェープリー値を用いた勾配モデル再構成手法によるコントリビューションの計算に焦点をあてる。
まず, 基礎となるShapley値がクライアントの貢献を正確に反映していないことを示し, クロスサイロフェデレーションにおける参加者間の不確実な報酬配分を導いた。
次に、これらの欠点を新たなデータサンプリングで緩和する新しい手法である「textsc{FedRandom}」を紹介し、フェデレート学習における貢献評価の安定性を高める効果を示す。
関連論文リスト
- DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning [1.740992908651449]
動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを導入する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
論文 参考訳(メタデータ) (2024-10-19T13:01:44Z) - Redefining Contributions: Shapley-Driven Federated Learning [3.9539878659683363]
フェデレーテッド・ラーニング(FL)は、機械学習において重要なアプローチとして登場した。
参加者が平等に、あるいは正直に貢献しない場合、グローバルなモデル収束を保証することは困難です。
本稿では,FLにおけるコントリビューションの詳細な評価のために,ShapFedと呼ばれる新しいコントリビューションアセスメントアセスメント手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T22:40:31Z) - Incentive Allocation in Vertical Federated Learning Based on Bankruptcy Problem [0.0]
垂直連合学習(VFL)は、機械学習モデルを協調訓練するための有望なアプローチである。
本稿では,能動的政党による受動的政党へのインセンティブ付与の問題に焦点をあてる。
タルムード分割則(英語版)を用いることで、我々はインセンティブの公平な分配を確実にする。
論文 参考訳(メタデータ) (2023-07-07T11:08:18Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing [16.528628447356496]
本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
論文 参考訳(メタデータ) (2021-03-30T02:19:45Z) - Efficient Client Contribution Evaluation for Horizontal Federated
Learning [20.70853611040455]
この論文は、クライアントサーバがローカルデータ上のパラメータ勾配を計算し、グラデーションを中央サーバにアップロードする水平FLフレームワークに焦点を当てている。
提案手法は,評価精度および時間的複雑さの観点から,従来手法よりも一貫して優れる。
論文 参考訳(メタデータ) (2021-02-26T06:01:42Z) - Scalable Bayesian Inverse Reinforcement Learning [93.27920030279586]
我々はAVRIL(Adroximate Variational Reward Imitation Learning)を紹介する。
本手法は,逆強化学習問題の誤った性質に対処する。
本手法を従来の制御シミュレーションと並行して実際の医療データに適用し,現在の手法の範囲を超えた環境におけるベイズ報酬推論を実証する。
論文 参考訳(メタデータ) (2021-02-12T12:32:02Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。