論文の概要: Efficient Client Contribution Evaluation for Horizontal Federated
Learning
- arxiv url: http://arxiv.org/abs/2102.13314v1
- Date: Fri, 26 Feb 2021 06:01:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 16:15:13.050670
- Title: Efficient Client Contribution Evaluation for Horizontal Federated
Learning
- Title(参考訳): 水平フェデレーション学習における効率的なクライアント貢献度評価
- Authors: Jie Zhao, Xinghua Zhu, Jianzong Wang, Jing Xiao
- Abstract要約: この論文は、クライアントサーバがローカルデータ上のパラメータ勾配を計算し、グラデーションを中央サーバにアップロードする水平FLフレームワークに焦点を当てている。
提案手法は,評価精度および時間的複雑さの観点から,従来手法よりも一貫して優れる。
- 参考スコア(独自算出の注目度): 20.70853611040455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In federated learning (FL), fair and accurate measurement of the contribution
of each federated participant is of great significance. The level of
contribution not only provides a rational metric for distributing financial
benefits among federated participants, but also helps to discover malicious
participants that try to poison the FL framework. Previous methods for
contribution measurement were based on enumeration over possible combination of
federated participants. Their computation costs increase drastically with the
number of participants or feature dimensions, making them inapplicable in
practical situations. In this paper an efficient method is proposed to evaluate
the contributions of federated participants. This paper focuses on the
horizontal FL framework, where client servers calculate parameter gradients
over their local data, and upload the gradients to the central server. Before
aggregating the client gradients, the central server train a data value
estimator of the gradients using reinforcement learning techniques. As shown by
experimental results, the proposed method consistently outperforms the
conventional leave-one-out method in terms of valuation authenticity as well as
time complexity.
- Abstract(参考訳): フェデレーション学習(fl)では,各フェデレーション参加者の貢献度を公平かつ正確に測定することが重要である。
貢献のレベルは、フェデレーション参加者に経済的利益を分配するための合理的な指標を提供するだけでなく、FLフレームワークを毒殺しようとする悪意のある参加者を発見するのに役立ちます。
これまでの貢献度測定の方法は、連合参加者の可能な組み合わせの列挙に基づいている。
計算コストは参加者数や特徴寸法によって劇的に増加し、実際の状況では適用できない。
本稿では,フェデレーション参加者の貢献度を評価するための効率的な手法を提案する。
本稿では,クライアントサーバがローカルデータ上でパラメータ勾配を計算し,その勾配を中央サーバにアップロードする水平型flフレームワークについて述べる。
クライアントの勾配を集約する前に、中央サーバは強化学習技術を用いて勾配のデータ値推定器を訓練する。
実験結果から示すように,提案手法は評価精度および時間的複雑さの観点から,従来手法よりも一貫して優れる。
関連論文リスト
- DPVS-Shapley:Faster and Universal Contribution Evaluation Component in Federated Learning [1.740992908651449]
動的Pruning Validation Set Shapley (DPVS-Shapley) というコンポーネントを導入する。
本手法は, 評価精度を損なうことなく, 元のデータセットを動的に刈り取ることにより, コントリビューション評価プロセスの高速化を図る。
論文 参考訳(メタデータ) (2024-10-19T13:01:44Z) - Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Redefining Contributions: Shapley-Driven Federated Learning [3.9539878659683363]
フェデレーテッド・ラーニング(FL)は、機械学習において重要なアプローチとして登場した。
参加者が平等に、あるいは正直に貢献しない場合、グローバルなモデル収束を保証することは困難です。
本稿では,FLにおけるコントリビューションの詳細な評価のために,ShapFedと呼ばれる新しいコントリビューションアセスメントアセスメント手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T22:40:31Z) - Don't Forget What I did?: Assessing Client Contributions in Federated
Learning [9.56869689239781]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにMLモデルをトレーニングする、コラボレーティブ機械学習(ML)アプローチである。
本研究では,FLContrib と呼ばれる歴史を意識したゲーム理論フレームワークを提案し,クライアントのサブセットがFLトレーニングの各時期に参加する際にクライアントのコントリビューションを評価する。
FLContribを用いて、FLトレーニングにおいてデータ中毒を行う不適切なクライアントを検出する。
論文 参考訳(メタデータ) (2024-03-11T20:39:32Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Contribution Evaluation in Federated Learning: Examining Current
Approaches [1.3688201404977818]
フェデレートラーニング(Federated Learning)では、プライベートで、潜在的に異種なデータや計算資源を持つクライアントが集まって、ローカライズしたデータを残さずに、共通のモデルをトレーニングします。
これらの貢献の価値を定量的に評価する評価貢献(CE)問題は、評価貢献(CE)問題と呼ばれる。
我々は、MNISTとCIFAR-10で紹介した新しいアプローチとともに、最も有望な最先端のアプローチのいくつかをベンチマークして、それらの相違点を示す。
論文 参考訳(メタデータ) (2023-11-16T12:32:44Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Fair Federated Medical Image Segmentation via Client Contribution
Estimation [24.148002258279632]
フェデレーションラーニング(FL)におけるフェアネスの確保方法
近年の研究では、顧客への貢献と、顧客間のパフォーマンスの均一性を達成する方法に基づいて、顧客に報酬を与える方法が研究されている。
両種類の公平性を同時に最適化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:21:54Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。