論文の概要: Training Federated GANs with Theoretical Guarantees: A Universal
Aggregation Approach
- arxiv url: http://arxiv.org/abs/2102.04655v1
- Date: Tue, 9 Feb 2021 05:44:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 17:16:36.826208
- Title: Training Federated GANs with Theoretical Guarantees: A Universal
Aggregation Approach
- Title(参考訳): 理論的保証付きトレーニングフェデレーションGAN:ユニバーサルアグリゲーションアプローチ
- Authors: Yikai Zhang, Hui Qu, Qi Chang, Huidong Liu, Dimitris Metaxas and Chao
Chen
- Abstract要約: 連合GANは、異なる場所でホストされている集中型ジェネレータと複数のプライベートディスクリミネーターを共同で訓練する。
従来の手法では、高度に異なる局所分布の混合であるターゲット分布を学習することは保証できない。
本稿では、この理論的な課題に取り組み、初めて、フェデレートされたGANのための証明可能な正しいフレームワークを提供する。
- 参考スコア(独自算出の注目度): 17.50485736419379
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Generative Adversarial Networks (GANs) have demonstrated their
potential in federated learning, i.e., learning a centralized model from data
privately hosted by multiple sites. A federatedGAN jointly trains a centralized
generator and multiple private discriminators hosted at different sites. A
major theoretical challenge for the federated GAN is the heterogeneity of the
local data distributions. Traditional approaches cannot guarantee to learn the
target distribution, which isa mixture of the highly different local
distributions. This paper tackles this theoretical challenge, and for the first
time, provides a provably correct framework for federated GAN. We propose a new
approach called Universal Aggregation, which simulates a centralized
discriminator via carefully aggregating the mixture of all private
discriminators. We prove that a generator trained with this simulated
centralized discriminator can learn the desired target distribution. Through
synthetic and real datasets, we show that our method can learn the mixture of
largely different distributions where existing federated GAN methods fail.
- Abstract(参考訳): 近年、GAN(Generative Adversarial Networks)は、複数のサイトがプライベートにホストするデータから集中型モデルを学習するフェデレーションラーニングの可能性を実証している。
フェデレーテッドGANは、異なる場所でホストされる集中型発電機と複数の個人識別装置を共同で訓練する。
連合GANの主要な理論的課題は、局所データ分布の不均一性である。
従来のアプローチでは、非常に異なる局所分布の混合であるターゲット分布を学習することは保証できない。
本稿では,この理論的な課題に初めて挑戦し,フェデレートganの枠組みを正当化する。
我々は,すべての個人識別器の混合物を慎重に集約することにより,集中的判別器をシミュレートするユニバーサルアグリゲーションと呼ばれる新しいアプローチを提案する。
このシミュレートされた集中型判別器で訓練したジェネレータが所望の目標分布を学習できることを実証する。
合成および実データを用いて,既存の連合型GAN法が失敗する分布の混合を学習可能であることを示す。
関連論文リスト
- Addressing Skewed Heterogeneity via Federated Prototype Rectification with Personalization [35.48757125452761]
フェデレートラーニング(Federated Learning)は、複数の分散デバイス間の協調モデルトレーニングを容易にするために設計された、効率的なフレームワークである。
連合学習の重要な課題は、データレベルの不均一性、すなわち、スキュードまたはロングテールのプライベートデータの分散である。
本稿では,フェデレーション・パーソナライゼーションとフェデレーション・プロトタイプ・レクティフィケーションの2つの部分からなる新しいフェデレーション・プロトタイプ・レクティフィケーションを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:26:46Z) - Proximity-based Self-Federated Learning [1.0066310107046081]
本稿では,近接型自己フェデレーション学習という,新しい完全分散型フェデレーション学習戦略を提案する。
従来のアルゴリズムとは異なり、我々の手法は、地理的近接とモデル精度に基づいて、クライアントが近隣ノードとモデルを共有し、調整することを奨励する。
論文 参考訳(メタデータ) (2024-07-17T08:44:45Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - FedDG: Federated Domain Generalization on Medical Image Segmentation via
Episodic Learning in Continuous Frequency Space [63.43592895652803]
フェデレーションラーニングは、分散医療機関がプライバシ保護を備えた共有予測モデルを共同で学習することを可能にします。
臨床展開では、連合学習で訓練されたモデルは、連邦外の完全に見えない病院に適用された場合、パフォーマンス低下に苦しむ可能性がある。
そこで本研究では,この問題に対してELCFS(Episodic Learning in Continuous frequency Space)と呼ばれる新しいアプローチを提案する。
本手法の有効性は,2つの医用画像分割作業における最先端および深部アブレーション実験よりも優れていた。
論文 参考訳(メタデータ) (2021-03-10T13:05:23Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。