論文の概要: FedRandom: Sampling Consistent and Accurate Contribution Values in Federated Learning
- arxiv url: http://arxiv.org/abs/2602.05693v1
- Date: Thu, 05 Feb 2026 14:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.968126
- Title: FedRandom: Sampling Consistent and Accurate Contribution Values in Federated Learning
- Title(参考訳): FedRandom: フェデレーション学習における一貫性と正確なコントリビューション価値のサンプリング
- Authors: Arno Geimer, Beltran Fiz Pontiveros, Radu State,
- Abstract要約: 我々は、コントリビューション不安定性問題に対する新しい緩和手法であるFedRandomを紹介する。
FedRandomは、すべての評価シナリオの3分の1以上で、地上の真実までの距離を縮めることを示す。
- 参考スコア(独自算出の注目度): 0.866627581195388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning is a privacy-preserving decentralized approach for Machine Learning tasks. In industry deployments characterized by a limited number of entities possessing abundant data, the significance of a participant's role in shaping the global model becomes pivotal given that participation in a federation incurs costs, and participants may expect compensation for their involvement. Additionally, the contributions of participants serve as a crucial means to identify and address potential malicious actors and free-riders. However, fairly assessing individual contributions remains a significant hurdle. Recent works have demonstrated a considerable inherent instability in contribution estimations across aggregation strategies. While employing a different strategy may offer convergence benefits, this instability can have potentially harming effects on the willingness of participants in engaging in the federation. In this work, we introduce FedRandom, a novel mitigation technique to the contribution instability problem. Tackling the instability as a statistical estimation problem, FedRandom allows us to generate more samples than when using regular FL strategies. We show that these additional samples provide a more consistent and reliable evaluation of participant contributions. We demonstrate our approach using different data distributions across CIFAR-10, MNIST, CIFAR-100 and FMNIST and show that FedRandom reduces the overall distance to the ground truth by more than a third in half of all evaluated scenarios, and improves stability in more than 90% of cases.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、マシンラーニングタスクのための、プライバシ保護のための分散アプローチである。
豊富なデータを持つ限られた数のエンティティを特徴とする産業展開においては、フェデレーションへの参加がコストを発生させるため、参加者の役割がグローバルモデルを形成する上で重要であることが重要となり、参加者は参加の報酬を期待できる。
さらに、参加者の貢献は、潜在的に悪意のあるアクターやフリーライダーを特定し、対処するための重要な手段となる。
しかし、個々の貢献を十分に評価することは依然として大きなハードルである。
近年の研究では、アグリゲーション戦略全体にわたるコントリビューション推定において、かなり固有の不安定性を示している。
異なる戦略を採用することで収束効果がもたらされるが、この不安定性は、フェデレーションに参加する参加者の意欲に悪影響を及ぼす可能性がある。
本稿では, コントリビューション不安定性問題に対する新しい緩和手法であるFedRandomを紹介する。
統計的推定問題としての不安定性に対処するため、FedRandomは通常のFL戦略よりも多くのサンプルを生成することができる。
これらの追加サンプルは、参加者のコントリビューションをより一貫した信頼性の高い評価を提供する。
CIFAR-10, MNIST, CIFAR-100, FMNISTにまたがる異なるデータ分布を用いたアプローチを実証し、FedRandomがすべての評価シナリオの3分の1以上を地上真実までの距離を減らし、90%以上のケースで安定性を向上させることを示す。
関連論文リスト
- On the Volatility of Shapley-Based Contribution Metrics in Federated Learning [1.827018440608344]
フェデレートラーニング(Federated Learning, FL)は、協調型およびプライバシ保護型機械学習パラダイムである。
不正確なコントリビューションの割り当ては、信頼を損なう可能性があり、不公平な報酬につながるため、参加者は連合への参加や積極的に貢献するインセンティブを欠く可能性がある。
集約戦略の集合において,Shapley値の相違点を広範囲に分析し,全体的および各クライアントレベルで検証する。
論文 参考訳(メタデータ) (2024-05-13T13:55:34Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - FedVal: Different good or different bad in federated learning [9.558549875692808]
フェデレート・ラーニング(FL)システムは悪意のあるアクターからの攻撃を受けやすい。
FLは、異なる人口集団の公正なパフォーマンスを保証するなど、グループの偏見に対処する上で、新たな課題を提起する。
このようなバイアスに対処するために使用される従来の方法は、FLシステムが持っていないデータへの集中的なアクセスを必要とする。
我々は、クライアントからの追加情報を必要としない堅牢性と公正性の両方に対して、新しいアプローチであるFedValを提案する。
論文 参考訳(メタデータ) (2023-06-06T22:11:13Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。