論文の概要: Mitigating federated learning contribution allocation instability through randomized aggregation
- arxiv url: http://arxiv.org/abs/2405.08044v1
- Date: Mon, 13 May 2024 13:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 16:06:44.630300
- Title: Mitigating federated learning contribution allocation instability through randomized aggregation
- Title(参考訳): ランダムアグリゲーションによるフェデレーション・コントリビューションの不安定化
- Authors: Arno Geimer, Beltran Fiz, Radu State,
- Abstract要約: Federated Learning(FL)は、堅牢なモデルの作成を可能にしながら、プライバシを保護するように設計された、新しいコラボレーティブ機械学習フレームワークである。
本稿では, 参加型グローバルモデルの作成に対する, 様々な参加者からの貢献の公正かつ正確な貢献について検討する。
我々は、より公平で分散した方法でコントリビューションをサンプリングするために設計されたFedRandomを紹介します。
- 参考スコア(独自算出の注目度): 1.827018440608344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a novel collaborative machine learning framework designed to preserve privacy while enabling the creation of robust models. This paradigm addresses a growing need for data security by allowing multiple participants to contribute to a model without exposing their individual datasets. A pivotal issue within this framework, however, concerns the fair and accurate attribution of contributions from various participants to the creation of the joint global model. Incorrect contribution distribution can erode trust among participants, result in inequitable compensation, and ultimately diminish the willingness of parties to engage or actively contribute to the federation. While several methods for remunerating participants have been proposed, little attention was given to the analysis of the stability of these methods when evaluating contributions, which is critical to ensure the long-term viability and fairness of FL systems. In this paper, we analyse this stability through the calculation of contributions by gradient-based model reconstruction techniques with Shapley values. Our investigation reveals that Shapley values fail to reflect baseline contributions, especially when employing different aggregation techniques. To address this issue, we extend on established aggregation techniques by introducing FedRandom, which is designed to sample contributions in a more equitable and distributed manner. We demonstrate that this approach not only serves as a viable aggregation technique but also significantly improves the accuracy of contribution assessment compared to traditional methods. Our results suggest that FedRandom enhances the overall fairness and stability of the federated learning system, making it a superior choice for federations with limited number of participants.
- Abstract(参考訳): Federated Learning(FL)は、堅牢なモデルの作成を可能にしながら、プライバシを保護するように設計された、新しいコラボレーティブ機械学習フレームワークである。
このパラダイムは、複数の参加者が個々のデータセットを公開せずにモデルにコントリビュートできるようにすることで、データセキュリティの必要性の増大に対処する。
しかし、この枠組みにおける重要な問題は、様々な参加者からの貢献の公正かつ正確な貢献と、共同グローバルモデルの作成に関するものである。
不正なコントリビューション分布は、参加者間の信頼を損なうことができ、不平等な報酬をもたらし、究極的には、当事者がフェデレーションに関与または積極的に貢献する意思を低下させる。
参加者に報酬を与える方法がいくつか提案されているが、コントリビューションの評価において、これらの手法の安定性の分析にはほとんど注意が払われていない。
本稿では,この安定性を,シェープリー値を用いた勾配モデル再構成手法によるコントリビューションの計算により解析する。
調査の結果,Shapleyの値は,特に異なるアグリゲーション技術を用いた場合,ベースラインのコントリビューションを反映できないことがわかった。
この問題に対処するため、より公平で分散した方法でコントリビューションをサンプリングするFedRandomを導入し、確立した集約手法を拡張した。
提案手法は, 有効な集約手法として機能するだけでなく, 従来の手法と比較して, コントリビューション評価の精度を大幅に向上することを示す。
その結果,FedRandomは,フェデレート学習システムの全体的公正性と安定性を高め,限られた参加者数でフェデレーションを選択できることが示唆された。
関連論文リスト
- DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning [1.740992908651449]
動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを導入する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
論文 参考訳(メタデータ) (2024-10-19T13:01:44Z) - Redefining Contributions: Shapley-Driven Federated Learning [3.9539878659683363]
フェデレーテッド・ラーニング(FL)は、機械学習において重要なアプローチとして登場した。
参加者が平等に、あるいは正直に貢献しない場合、グローバルなモデル収束を保証することは困難です。
本稿では,FLにおけるコントリビューションの詳細な評価のために,ShapFedと呼ばれる新しいコントリビューションアセスメントアセスメント手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T22:40:31Z) - Incentive Allocation in Vertical Federated Learning Based on Bankruptcy Problem [0.0]
垂直連合学習(VFL)は、機械学習モデルを協調訓練するための有望なアプローチである。
本稿では,能動的政党による受動的政党へのインセンティブ付与の問題に焦点をあてる。
タルムード分割則(英語版)を用いることで、我々はインセンティブの公平な分配を確実にする。
論文 参考訳(メタデータ) (2023-07-07T11:08:18Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing [16.528628447356496]
本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
論文 参考訳(メタデータ) (2021-03-30T02:19:45Z) - Efficient Client Contribution Evaluation for Horizontal Federated
Learning [20.70853611040455]
この論文は、クライアントサーバがローカルデータ上のパラメータ勾配を計算し、グラデーションを中央サーバにアップロードする水平FLフレームワークに焦点を当てている。
提案手法は,評価精度および時間的複雑さの観点から,従来手法よりも一貫して優れる。
論文 参考訳(メタデータ) (2021-02-26T06:01:42Z) - Scalable Bayesian Inverse Reinforcement Learning [93.27920030279586]
我々はAVRIL(Adroximate Variational Reward Imitation Learning)を紹介する。
本手法は,逆強化学習問題の誤った性質に対処する。
本手法を従来の制御シミュレーションと並行して実際の医療データに適用し,現在の手法の範囲を超えた環境におけるベイズ報酬推論を実証する。
論文 参考訳(メタデータ) (2021-02-12T12:32:02Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。