論文の概要: FedSmart: An Auto Updating Federated Learning Optimization Mechanism
- arxiv url: http://arxiv.org/abs/2009.07455v1
- Date: Wed, 16 Sep 2020 03:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:26:45.025823
- Title: FedSmart: An Auto Updating Federated Learning Optimization Mechanism
- Title(参考訳): FedSmart: 自動更新型フェデレーション学習最適化メカニズム
- Authors: Anxun He, Jianzong Wang, Zhangcheng Huang and Jing Xiao
- Abstract要約: フェデレーション学習は、データのプライバシ保護に重要な貢献をしている。
データ共有戦略や事前トレーニングのような、非IIDデータに対するモデルの堅牢性を保証する既存の方法は、プライバシリークにつながる可能性がある。
本稿では、最適化のための性能に基づくパラメータ戻り手法を導入し、フェデレートSmartと呼ぶ。
- 参考スコア(独自算出の注目度): 23.842595615337565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has made an important contribution to data
privacy-preserving. Many previous works are based on the assumption that the
data are independently identically distributed (IID). As a result, the model
performance on non-identically independently distributed (non-IID) data is
beyond expectation, which is the concrete situation. Some existing methods of
ensuring the model robustness on non-IID data, like the data-sharing strategy
or pretraining, may lead to privacy leaking. In addition, there exist some
participants who try to poison the model with low-quality data. In this paper,
a performance-based parameter return method for optimization is introduced, we
term it FederatedSmart (FedSmart). It optimizes different model for each client
through sharing global gradients, and it extracts the data from each client as
a local validation set, and the accuracy that model achieves in round t
determines the weights of the next round. The experiment results show that
FedSmart enables the participants to allocate a greater weight to the ones with
similar data distribution.
- Abstract(参考訳): フェデレーション学習は、データのプライバシ保存に重要な貢献をした。
多くの先行研究は、データが独立に分散(IID)されているという仮定に基づいている。
その結果,非ID独立分散(非IID)データのモデル性能は,具体的な状況である期待を超えている。
データ共有戦略や事前トレーニングなど、非iidデータのモデルロバスト性を保証する既存の方法が、プライバシリークにつながる可能性がある。
さらに、低品質のデータでモデルに毒を盛ろうとする参加者もいます。
本稿では,FedSmart(FedSmart)と呼ぶ,最適化のための性能に基づくパラメータ戻り手法を提案する。
グローバルな勾配を共有することでクライアント毎に異なるモデルを最適化し、各クライアントからローカルな検証セットとしてデータを抽出し、ラウンドtでモデルが達成する精度が次のラウンドの重みを決定する。
実験の結果,feedsmartでは,同様のデータ分布を持つ参加者に対して,より重みを割り当てることができることがわかった。
関連論文リスト
- FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Dirichlet-based Uncertainty Quantification for Personalized Federated
Learning with Improved Posterior Networks [9.54563359677778]
本稿では,グローバルおよびパーソナライズされたモデルの中からモデルを選択可能なフェデレーション学習への新たなアプローチを提案する。
これは、局所的およびグローバルな分布内および分布外データを検出するのに役立つ予測不確実性の慎重なモデリングによって達成される。
一般的な実世界の画像データセットに対する総合的な実験的評価は、アウト・オブ・ディストリビューション・データの存在下でのモデルの優れた性能を示している。
論文 参考訳(メタデータ) (2023-12-18T14:30:05Z) - pFedSim: Similarity-Aware Model Aggregation Towards Personalized
Federated Learning [27.668944118750115]
モデルトレーニング中にデータのプライバシを保護するために、フェデレーション学習(FL)パラダイムが出現する。
FLの最大の課題の1つは、IID以外の(同一で、独立に分散されていない)データにある。
本稿では,モデル類似性に基づく新しいpFedSimアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-25T04:25:55Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Federated Visual Classification with Real-World Data Distribution [9.564468846277366]
我々は,FedAvg(Federated Averaging)アルゴリズムのベンチマークを用いて,実世界のデータ分布が分散学習に与える影響を特徴付ける。
種別とランドマーク分類のための2つの新しい大規模データセットを導入し,ユーザ毎のデータ分割を現実的に行う。
また、2つの新しいアルゴリズム(FedVC、FedIR)も開発しています。
論文 参考訳(メタデータ) (2020-03-18T07:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。