論文の概要: Fed-TGAN: Federated Learning Framework for Synthesizing Tabular Data
- arxiv url: http://arxiv.org/abs/2108.07927v1
- Date: Wed, 18 Aug 2021 01:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:33:57.742357
- Title: Fed-TGAN: Federated Learning Framework for Synthesizing Tabular Data
- Title(参考訳): Fed-TGAN: 語彙データの合成のためのフェデレーション学習フレームワーク
- Authors: Zilong Zhao, Robert Birke, Aditya Kunar, Lydia Y. Chen
- Abstract要約: 我々は,タブラルガンのための最初のフェデレート学習フレームワークであるFed-TGANを提案する。
非同一人物の複雑なGANを効果的に学習するために、Fed-TGANは2つの新しい特徴を設計する。
その結果,Fed-TGANはエポックあたりのトレーニング時間を最大200%まで加速することがわかった。
- 参考スコア(独自算出の注目度): 8.014848609114154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) are typically trained to synthesize
data, from images and more recently tabular data, under the assumption of
directly accessible training data. Recently, federated learning (FL) is an
emerging paradigm that features decentralized learning on client's local data
with a privacy-preserving capability. And, while learning GANs to synthesize
images on FL systems has just been demonstrated, it is unknown if GANs for
tabular data can be learned from decentralized data sources. Moreover, it
remains unclear which distributed architecture suits them best. Different from
image GANs, state-of-the-art tabular GANs require prior knowledge on the data
distribution of each (discrete and continuous) column to agree on a common
encoding -- risking privacy guarantees. In this paper, we propose Fed-TGAN, the
first Federated learning framework for Tabular GANs. To effectively learn a
complex tabular GAN on non-identical participants, Fed-TGAN designs two novel
features: (i) a privacy-preserving multi-source feature encoding for model
initialization; and (ii) table similarity aware weighting strategies to
aggregate local models for countering data skew. We extensively evaluate the
proposed Fed-TGAN against variants of decentralized learning architectures on
four widely used datasets. Results show that Fed-TGAN accelerates training time
per epoch up to 200% compared to the alternative architectures, for both IID
and Non-IID data. Overall, Fed-TGAN not only stabilizes the training loss, but
also achieves better similarity between generated and original data.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は通常、直接アクセス可能なトレーニングデータを想定して、画像やより最近の表データからデータを合成するために訓練される。
近年、FL(Federated Learning)は、クライアントのローカルデータの分散学習とプライバシ保護機能を備えた新興パラダイムである。
また,FLシステム上で画像を合成するためにGANを学習することが実証されているが,グラフデータのためのGANが分散データソースから学べるかどうかは不明である。
さらに、どの分散アーキテクチャが最適なのかは不明だ。
イメージGANと異なり、最先端のタブラGANでは、共通のエンコーディングに合意するために、各(離散かつ連続的な)カラムのデータ配布に関する事前の知識が必要です。
本稿では,タブラルガンのための最初のフェデレーション学習フレームワークであるFed-TGANを提案する。
非同一の参加者に対して、複雑な表型ganを効果的に学習するために、feed-tganは、(i)モデル初期化のためのプライバシー保護型マルチソース特徴エンコーディングと(ii)テーブル類似性を考慮した重み付け戦略という2つの新しい特徴をデザインする。
提案するfeed-tganを4つのデータセット上で分散学習アーキテクチャの変種に対して広範囲に評価した。
その結果,Fed-TGANはIIDおよび非IIDデータに対して,代替アーキテクチャと比較して,エポック毎のトレーニング時間を200%まで加速することがわかった。
全体として、Fed-TGANはトレーニング損失を安定化するだけでなく、生成されたデータと元のデータとの類似性を向上する。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLIGAN: Enhancing Federated Learning with Incomplete Data using GAN [1.5749416770494706]
Federated Learning (FL)は、ネットワークデバイス上での機械学習モデルの分散トレーニングのためのプライバシ保護メカニズムを提供する。
本稿では,FLにおけるデータ不完全性問題に対処する新しいアプローチであるFLIGANを提案する。
本手法はFLのプライバシ要件に則り,プロセス内の実際のデータを共有せずに合成データをフェデレートした方法で生成する。
論文 参考訳(メタデータ) (2024-03-25T16:49:38Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - GTV: Generating Tabular Data via Vertical Federated Learning [20.683314367860532]
我々はGAN(Generative Adversarial Networks)のためのVFLフレームワークであるGTVを提案する。
GTVは、プライバシ保存方式でトレーニングデータにアクセスするためのジェネレータと識別器のためのユニークな分散トレーニングアーキテクチャを提案する。
その結果,GTV は集中型 GAN アルゴリズムで生成したデータに匹敵する高忠実な合成データを連続的に生成できることがわかった。
論文 参考訳(メタデータ) (2023-02-03T13:04:12Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Federated Learning with GAN-based Data Synthesis for Non-IID Clients [8.304185807036783]
フェデレートラーニング(FL)は、最近、プライバシ保護のためのコラボレーティブラーニングパラダイムとして人気を博している。
我々は,合成データを共有することで,この非IID課題を解決するために,SDA-FL(Synthetic Data Aided Federated Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T11:43:25Z) - Heterogeneous Ensemble Knowledge Transfer for Training Large Models in
Federated Learning [22.310090483499035]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを中央集約サーバに公開することなく、協調的にモデルを学習することを可能にする。
既存のFLアルゴリズムの多くは、クライアントとサーバにまたがってデプロイされるのと同じアーキテクチャのモデルを必要とする。
本稿では,Fed-ETと呼ばれる新しいアンサンブル知識伝達手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T05:18:32Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。