論文の概要: On the Volatility of Shapley-Based Contribution Metrics in Federated Learning
- arxiv url: http://arxiv.org/abs/2405.08044v3
- Date: Thu, 03 Apr 2025 13:13:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:54:26.200828
- Title: On the Volatility of Shapley-Based Contribution Metrics in Federated Learning
- Title(参考訳): フェデレートラーニングにおけるシェープリーによるコントリビューション指標の変動性について
- Authors: Arno Geimer, Beltran Fiz, Radu State,
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、協調型およびプライバシ保護型機械学習パラダイムである。
FLにおける重要な課題は、多様な参加者からの貢献を公平かつ正確に割り当てることにある。
不正確な割り当ては信頼を損なう可能性があり、不公平な補償につながるため、参加者は連合への参加または積極的に貢献するインセンティブを欠く可能性がある。
- 参考スコア(独自算出の注目度): 1.827018440608344
- License:
- Abstract: Federated learning (FL) is a collaborative and privacy-preserving Machine Learning paradigm, allowing the development of robust models without the need to centralize sensitive data. A critical challenge in FL lies in fairly and accurately allocating contributions from diverse participants. Inaccurate allocation can undermine trust, lead to unfair compensation, and thus participants may lack the incentive to join or actively contribute to the federation. Various remuneration strategies have been proposed to date, including auction-based approaches and Shapley-value-based methods, the latter offering a means to quantify the contribution of each participant. However, little to no work has studied the stability of these contribution evaluation methods. In this paper, we evaluate participant contributions in federated learning using gradient-based model reconstruction techniques with Shapley values and compare the round-based contributions to a classic data contribution measurement scheme. We provide an extensive analysis of the discrepancies of Shapley values across a set of aggregation strategies, and examine them on an overall and a per-client level. We show that, between different aggregation techniques, Shapley values lead to unstable reward allocations among participants. Our analysis spans various data heterogeneity distributions, including independent and identically distributed (IID) and non-IID scenarios.
- Abstract(参考訳): Federated Learning(FL)は、協調的かつプライバシ保護の機械学習パラダイムであり、センシティブなデータを集中化することなく、堅牢なモデルの開発を可能にする。
FLにおける重要な課題は、多様な参加者からの貢献を公平かつ正確に割り当てることにある。
不正確な割り当ては信頼を損なう可能性があり、不公平な補償につながるため、参加者は連合への参加または積極的に貢献するインセンティブを欠く可能性がある。
オークションベースのアプローチやシェープ価値に基づく手法など、様々な報酬戦略が提案されており、後者は参加者の貢献を定量化する手段を提供している。
しかし,これらのコントリビューション評価手法の安定性についてはほとんど研究されていない。
本稿では,階層型モデル再構成手法とシェープリー値を用いたフェデレート学習へのコントリビューション評価を行い,古典的データコントリビューション測定手法におけるラウンドベースコントリビューションの比較を行った。
集約戦略の集合において,Shapley値の相違点を広範囲に分析し,それらを全体的,かつクライアント単位のレベルで検証する。
異なるアグリゲーション手法間では、Shapley値が参加者間で不安定な報酬配分をもたらすことが示される。
我々の分析は、独立および同一分散(IID)および非IIDシナリオを含む様々なデータ不均一性分布にまたがる。
関連論文リスト
- DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning [1.740992908651449]
動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを導入する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
論文 参考訳(メタデータ) (2024-10-19T13:01:44Z) - Redefining Contributions: Shapley-Driven Federated Learning [3.9539878659683363]
フェデレーテッド・ラーニング(FL)は、機械学習において重要なアプローチとして登場した。
参加者が平等に、あるいは正直に貢献しない場合、グローバルなモデル収束を保証することは困難です。
本稿では,FLにおけるコントリビューションの詳細な評価のために,ShapFedと呼ばれる新しいコントリビューションアセスメントアセスメント手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T22:40:31Z) - Incentive Allocation in Vertical Federated Learning Based on Bankruptcy Problem [0.0]
垂直連合学習(VFL)は、機械学習モデルを協調訓練するための有望なアプローチである。
本稿では,能動的政党による受動的政党へのインセンティブ付与の問題に焦点をあてる。
タルムード分割則(英語版)を用いることで、我々はインセンティブの公平な分配を確実にする。
論文 参考訳(メタデータ) (2023-07-07T11:08:18Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing [16.528628447356496]
本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
論文 参考訳(メタデータ) (2021-03-30T02:19:45Z) - Efficient Client Contribution Evaluation for Horizontal Federated
Learning [20.70853611040455]
この論文は、クライアントサーバがローカルデータ上のパラメータ勾配を計算し、グラデーションを中央サーバにアップロードする水平FLフレームワークに焦点を当てている。
提案手法は,評価精度および時間的複雑さの観点から,従来手法よりも一貫して優れる。
論文 参考訳(メタデータ) (2021-02-26T06:01:42Z) - Scalable Bayesian Inverse Reinforcement Learning [93.27920030279586]
我々はAVRIL(Adroximate Variational Reward Imitation Learning)を紹介する。
本手法は,逆強化学習問題の誤った性質に対処する。
本手法を従来の制御シミュレーションと並行して実際の医療データに適用し,現在の手法の範囲を超えた環境におけるベイズ報酬推論を実証する。
論文 参考訳(メタデータ) (2021-02-12T12:32:02Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。