論文の概要: FedCCEA : A Practical Approach of Client Contribution Evaluation for
Federated Learning
- arxiv url: http://arxiv.org/abs/2106.02310v1
- Date: Fri, 4 Jun 2021 07:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:15:42.105889
- Title: FedCCEA : A Practical Approach of Client Contribution Evaluation for
Federated Learning
- Title(参考訳): FedCCEA : フェデレーション学習における顧客貢献評価の実践的アプローチ
- Authors: Sung Kuk Shyn, Donghee Kim, and Kwangsu Kim
- Abstract要約: データアセスメントとしても知られるクライアントコントリビューション評価は、クライアントの選択とインセンティブアロケーションのための連邦学習(FL)において重要なアプローチである。
精度近似(FedCCEA)によるフェデレーション・コントリビューション・アセスメント(Federated Contribution Evaluation)と呼ばれる経験的評価手法を提案する。
本手法は、サンプルデータサイズの入力を用いてシミュレーションされたテスト精度を推定し、クライアントのデータ品質とデータサイズを抽出し、クライアントのコントリビューションを測定する精度近似モデル(AAM)を構築する。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Client contribution evaluation, also known as data valuation, is a crucial
approach in federated learning(FL) for client selection and incentive
allocation. However, due to restrictions of accessibility of raw data, only
limited information such as local weights and local data size of each client is
open for quantifying the client contribution. Using data size from available
information, we introduce an empirical evaluation method called Federated
Client Contribution Evaluation through Accuracy Approximation(FedCCEA). This
method builds the Accuracy Approximation Model(AAM), which estimates a
simulated test accuracy using inputs of sampled data size and extracts the
clients' data quality and data size to measure client contribution. FedCCEA
strengthens some advantages: (1) enablement of data size selection to the
clients, (2) feasible evaluation time regardless of the number of clients, and
(3) precise estimation in non-IID settings. We demonstrate the superiority of
FedCCEA compared to previous methods through several experiments: client
contribution distribution, client removal, and robustness test to partial
participation.
- Abstract(参考訳): データバリュエーションとしても知られるクライアント貢献評価は、クライアント選択とインセンティブ割り当てのための連合学習(fl)において重要なアプローチである。
しかし、生データのアクセシビリティの制限のため、クライアントの貢献度を定量化するために、各クライアントのローカルウェイトやローカルデータサイズなどの限られた情報のみをオープンする。
利用可能な情報からのデータサイズを用いて,federated client contribution evaluation(fedccea)と呼ばれる経験的評価手法を提案する。
本手法は、サンプルデータサイズの入力を用いてシミュレーションされたテスト精度を推定し、クライアントのデータ品質とデータサイズを抽出し、クライアントのコントリビューションを測定する精度近似モデル(AAM)を構築する。
FedCCEAは、(1)クライアントへのデータサイズ選択の有効化、(2)クライアント数に関係なく実行可能な評価時間、(3)非IID設定での正確な評価など、いくつかの利点を強化している。
提案手法は, クライアント貢献分布, クライアント除去, ロバスト性テストなどの実験により, 従来手法と比較してfecceaの優越性を示す。
関連論文リスト
- Fine-Tuning Personalization in Federated Learning to Mitigate Adversarial Clients [8.773068878015856]
フェデレートラーニング(Federated Learning, FL)とは、複数のマシン(例えばクライアント)がデータをローカルに保持しながら一元的に学習できるようにする、魅力的なパラダイムである。
我々は、一部のクライアントが敵対できるFL設定を検討し、完全なコラボレーションが失敗する条件を導出する。
論文 参考訳(メタデータ) (2024-09-30T14:31:19Z) - Emulating Full Client Participation: A Long-Term Client Selection Strategy for Federated Learning [48.94952630292219]
本稿では,クライアントの完全参加によって達成されるパフォーマンスをエミュレートする新しいクライアント選択戦略を提案する。
1ラウンドで、クライアントサブセットとフルクライアントセット間の勾配空間推定誤差を最小化し、クライアントを選択する。
複数ラウンド選択において、類似したデータ分布を持つクライアントが選択される頻度に類似することを保証する、新しい個性制約を導入する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Towards Fair, Robust and Efficient Client Contribution Evaluation in
Federated Learning [16.543724155324938]
FRECA(Fair, Robust, Efficient Client Assessment)と呼ばれる新しい手法を導入する。
FRECAはFedTruthというフレームワークを使用して、グローバルモデルの真実の更新を見積もり、すべてのクライアントからのコントリビューションのバランスをとり、悪意のあるクライアントからの影響をフィルタリングする。
実験の結果,FRECAはクライアントのコントリビューションをロバストな方法で正確かつ効率的に定量化できることがわかった。
論文 参考訳(メタデータ) (2024-02-06T21:07:12Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Federated Graph-based Sampling with Arbitrary Client Availability [34.95352685954059]
本稿では,FedGS(Federated Graph-based Smpling)というフレームワークを提案する。
実験結果から,FedGSが公正なクライアントサンプリング方式を実現し,任意のクライアントアベイラビリティの下でモデル性能を向上させるという利点が確認できた。
論文 参考訳(メタデータ) (2022-11-25T09:38:20Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Study of the performance and scalability of federated learning for
medical imaging with intermittent clients [0.0]
フェデレートラーニング(Federated Learning)は、マシンラーニングやディープラーニングをセキュアな方法で実行するために使用される、データ分散化プライバシ保護技術である。
オープンデータリポジトリから得られた胸部X線画像を用いて, 医用画像解析のユースケースを提案する。
異なるクライアントはトレーニングデータからシミュレートされ、不均衡な方法で選択される。
実際のシナリオでは、一部のクライアントがトレーニングを離れるかもしれないし、新しいクライアントがトレーニングに入るかもしれない。
論文 参考訳(メタデータ) (2022-07-18T13:18:34Z) - New Metrics to Evaluate the Performance and Fairness of Personalized
Federated Learning [5.500172106704342]
フェデレートラーニング(FL)では、クライアントは中央アグリゲータを通じて単一のグローバルモデル(FedAvg)を学ぶ。
この設定では、クライアント間でのデータの非IID分布は、グローバルFLモデルが各クライアントのローカルデータに良いパフォーマンスを提供することを制限する。
パーソナライズされたFLは、各クライアントのパーソナライズされたモデルを見つけることで、この問題に対処することを目指している。
論文 参考訳(メタデータ) (2021-07-28T05:30:17Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。