論文の概要: Owen Sampling Accelerates Contribution Estimation in Federated Learning
- arxiv url: http://arxiv.org/abs/2508.21261v1
- Date: Thu, 28 Aug 2025 23:22:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.900905
- Title: Owen Sampling Accelerates Contribution Estimation in Federated Learning
- Title(参考訳): オーウェンサンプリングはフェデレート学習における貢献度推定を加速させる
- Authors: Hossein KhademSohi, Hadi Hemmati, Jiayu Zhou, Steve Drew,
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントから情報を集約して、生データを公開せずに共有グローバルモデルをトレーニングする。
We propose FedOwen, a efficient framework that using Owen sample to approximate Shapley values under the total evaluation budget。
FedOwenは、非IIDベンチマークの最先端ベースラインと比較して、同じ数の通信ラウンドで最終精度を最大23%向上させる。
- 参考スコア(独自算出の注目度): 24.329068747370314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) aggregates information from multiple clients to train a shared global model without exposing raw data. Accurately estimating each client's contribution is essential not just for fair rewards, but for selecting the most useful clients so the global model converges faster. The Shapley value is a principled choice, yet exact computation scales exponentially with the number of clients, making it infeasible for large federations. We propose FedOwen, an efficient framework that uses Owen sampling to approximate Shapley values under the same total evaluation budget as existing methods while keeping the approximation error small. In addition, FedOwen uses an adaptive client selection strategy that balances exploiting high-value clients with exploring under-sampled ones, reducing bias and uncovering rare but informative data. Under a fixed valuation cost, FedOwen achieves up to 23 percent higher final accuracy within the same number of communication rounds compared to state-of-the-art baselines on non-IID benchmarks.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントから情報を集約して、生データを公開せずに共有グローバルモデルをトレーニングする。
各クライアントのコントリビューションを正確に見積もることは、公正な報酬だけでなく、最も有用なクライアントを選択するためにも不可欠です。
Shapley値は原則化された選択であるが、クライアント数と指数関数的に正確な計算スケールがスケールするので、大規模なフェデレーションでは利用できない。
We propose FedOwen, a efficient framework that using Owen sample to approximate Shapley values under the total evaluation budget as the existing method while keep the approximation error small。
さらに、FedOwenは適応的なクライアント選択戦略を使用して、高価値クライアントの活用とアンダーサンプされたクライアントの探索のバランスを取り、バイアスを低減し、まれだが情報的なデータを明らかにする。
固定されたバリュエーションコストの下では、FedOwenは、非IIDベンチマークの最先端ベースラインと比較して、同じ通信ラウンド数で最大で23%高い最終精度を達成している。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Debiasing Federated Learning with Correlated Client Participation [25.521881752822164]
本稿では,FLのクライアント参加をマルコフ連鎖としてモデル化する理論的枠組みを紹介する。
すべてのクライアントは、再参加する前に最低限の$R$ラウンド(最小分離)を待たなければならない。
我々は、不偏の最適解に確実に収束するFedAvgの効果的な脱バイアスアルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-02T03:30:53Z) - Utilizing Free Clients in Federated Learning for Focused Model
Enhancement [9.370655190768163]
Federated Learning(FL)は、分散機械学習のアプローチで、分散化された異種データのモデルを学ぶ。
我々はこの課題に対処するためにFedALIGN(Federated Adaptive Learning with Inclusion of Global Needs)を提案する。
論文 参考訳(メタデータ) (2023-10-06T18:23:40Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - A Lightweight Method for Tackling Unknown Participation Statistics in Federated Averaging [39.15781847115902]
フェデレートラーニング(FL)では、クライアントは通常、事前に不明な多様な参加統計を持つ。
我々は、最適重みのオンライン推定に基づいてクライアント更新を適応的に重み付けすることで、FedAvgを改善するFedAUという新しいアルゴリズムを提案する。
我々の理論的結果は、FedAUが元の目的の最適解に収束することを示しながら、重要かつ興味深い洞察を明らかにした。
論文 参考訳(メタデータ) (2023-06-06T04:32:10Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Federated Graph-based Sampling with Arbitrary Client Availability [34.95352685954059]
本稿では,FedGS(Federated Graph-based Smpling)というフレームワークを提案する。
実験結果から,FedGSが公正なクライアントサンプリング方式を実現し,任意のクライアントアベイラビリティの下でモデル性能を向上させるという利点が確認できた。
論文 参考訳(メタデータ) (2022-11-25T09:38:20Z) - Anchor Sampling for Federated Learning with Partial Client Participation [17.8094483221845]
本稿では,フェデラルクライアント参加のためのフェデラルラーニング(Federated Learning,FedAMD)を提案する。
中心となるアイデアはアンカーサンプリングであり、部分的な参加者をアンカーグループとマイナーグループに分離する。
2つのグループの結果を統合することで、FedAMDはトレーニングプロセスを加速し、モデルのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-06-13T03:08:39Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。