論文の概要: Bias-Free FedGAN
- arxiv url: http://arxiv.org/abs/2103.09876v1
- Date: Wed, 17 Mar 2021 19:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:06:46.615036
- Title: Bias-Free FedGAN
- Title(参考訳): Bias-free FedGAN
- Authors: Vaikkunth Mugunthan, Vignesh Gokul, Lalana Kagal, Shlomo Dubnov
- Abstract要約: Federated Generative Adversarial Network (FedGAN)は、分散クライアント間でGANをトレーニングするためのコミュニケーション効率の高いアプローチです。
本稿では,FedGANが非独立分散(非ID)環境下でバイアスデータを生成することを実験的に示す。
また,FedGANを用いたバイアスフリー合成データセット生成手法であるBias-Free FedGANを提案する。
- 参考スコア(独自算出の注目度): 3.509841703841321
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Generative Adversarial Network (FedGAN) is a
communication-efficient approach to train a GAN across distributed clients
without clients having to share their sensitive training data. In this paper,
we experimentally show that FedGAN generates biased data points under
non-independent-and-identically-distributed (non-iid) settings. Also, we
propose Bias-Free FedGAN, an approach to generate bias-free synthetic datasets
using FedGAN. Bias-Free FedGAN has the same communication cost as that of
FedGAN. Experimental results on image datasets (MNIST and FashionMNIST)
validate our claims.
- Abstract(参考訳): Federated Generative Adversarial Network (FedGAN)は、クライアントが機密データを共有することなく、分散クライアント間でGANをトレーニングするための通信効率のよいアプローチである。
本稿では,FedGANが非独立分散(非ID)環境下でバイアスデータを生成することを示す。
また,FedGANを用いてバイアスのない合成データセットを生成する手法であるBias-Free FedGANを提案する。
Bias-Free FedGANはFedGANと同じ通信コストを持つ。
画像データセット(MNISTとFashionMNIST)の実験結果から,我々の主張を裏付ける。
関連論文リスト
- Disentangling data distribution for Federated Learning [20.524108508314107]
フェデレートラーニング(FL)は、分散クライアントが所有するプライベートデータによってパフォーマンスが向上するグローバルモデルの協調トレーニングを促進する。
しかし、FLの幅広い適用性は、異なるクライアント間のデータ分散の絡み合いによって妨げられている。
本稿では,FLがデータ分散を解き放つことによって,分散システムに匹敵する効率を原理的に達成できることを初めて示す。
論文 参考訳(メタデータ) (2024-10-16T13:10:04Z) - Optimal Unbiased Randomizers for Regression with Label Differential
Privacy [61.63619647307816]
ラベル差分プライバシ(DP)の制約の下で回帰モデルをトレーニングするためのラベルランダム化器の新たなファミリーを提案する。
これらのランダム化器は、いくつかのデータセット上で最先端のプライバシユーティリティトレードオフを実現することを実証する。
論文 参考訳(メタデータ) (2023-12-09T19:58:34Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Fed-TGAN: Federated Learning Framework for Synthesizing Tabular Data [8.014848609114154]
我々は,タブラルガンのための最初のフェデレート学習フレームワークであるFed-TGANを提案する。
非同一人物の複雑なGANを効果的に学習するために、Fed-TGANは2つの新しい特徴を設計する。
その結果,Fed-TGANはエポックあたりのトレーニング時間を最大200%まで加速することがわかった。
論文 参考訳(メタデータ) (2021-08-18T01:47:36Z) - FedBN: Federated Learning on Non-IID Features via Local Batch
Normalization [23.519212374186232]
フェデレーション学習(fl)の新たなパラダイムは、生データを集中的に集約することなく、ネットワークエッジにおける深層モデルの協調的なトレーニングを可能にすることを目指している。
モデルの平均化に先立って,局所的バッチ正規化を用いて特徴シフトを緩和する有効な手法を提案する。
FedBNと呼ばれるこの方式は、古典的なFedAvgと、非IDデータの最先端の両方を上回っている。
論文 参考訳(メタデータ) (2021-02-15T16:04:10Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - FedGAN: Federated Generative Adversarial Networks for Distributed Data [9.812506929134424]
我々は,非独立分散データソースの分散ソース間でGANをトレーニングするためのフェデレーション・ジェネラル・アドバイサル・ネットワーク(FedGAN)を提案する。
ローカルジェネレータとディスクリミネータを使用し、インターメディアを介して定期的に同期し、ジェネレータとディスクリミネータパラメータを平均化しブロードキャストします。
我々は、FedGANが収束し、一般的な分散GANと同等の性能を持つことを示したが、通信の複雑さは減少する。
論文 参考訳(メタデータ) (2020-06-12T14:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。