論文の概要: Fed-TDA: Federated Tabular Data Augmentation on Non-IID Data
- arxiv url: http://arxiv.org/abs/2211.13116v1
- Date: Tue, 22 Nov 2022 02:17:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 14:58:37.592865
- Title: Fed-TDA: Federated Tabular Data Augmentation on Non-IID Data
- Title(参考訳): Fed-TDA:IIDデータのフェデレーション付きタブラルデータ拡張
- Authors: Shaoming Duan, Chuanyi Liu, Peiyi Han, Tianyu He, Yifeng Xu, Qiyuan
Deng
- Abstract要約: 非独立で同一に分散した(非IID)データは、連邦学習(FL)における鍵となる課題である
非IID問題を解決するためのフェデレーション生成モデルや生データ共有戦略に基づく既存のデータ拡張手法は、依然として性能の低下、プライバシー保護の懸念、通信オーバーヘッドの増大に悩まされている。
簡単な統計データを用いてデータ拡張のためのデータを合成するFed-TDAを提案する。
- 参考スコア(独自算出の注目度): 7.5178093283247165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-independent and identically distributed (non-IID) data is a key challenge
in federated learning (FL), which usually hampers the optimization convergence
and the performance of FL. Existing data augmentation methods based on
federated generative models or raw data sharing strategies for solving the
non-IID problem still suffer from low performance, privacy protection concerns,
and high communication overhead in decentralized tabular data. To tackle these
challenges, we propose a federated tabular data augmentation method, named
Fed-TDA. The core idea of Fed-TDA is to synthesize tabular data for data
augmentation using some simple statistics (e.g., distributions of each column
and global covariance). Specifically, we propose the multimodal distribution
transformation and inverse cumulative distribution mapping respectively
synthesize continuous and discrete columns in tabular data from a noise
according to the pre-learned statistics. Furthermore, we theoretically analyze
that our Fed-TDA not only preserves data privacy but also maintains the
distribution of the original data and the correlation between columns. Through
extensive experiments on five real-world tabular datasets, we demonstrate the
superiority of Fed-TDA over the state-of-the-art in test performance and
communication efficiency.
- Abstract(参考訳): 非独立かつ同一の分散(非iid)データは、通常、flの最適化収束とパフォーマンスを阻害する連合学習(fl)において重要な課題である。
非IID問題を解決するためのフェデレーション生成モデルや生データ共有戦略に基づく既存のデータ拡張手法は、依然として低パフォーマンス、プライバシ保護の懸念、分散表データにおける高い通信オーバーヘッドに悩まされている。
そこで本研究では,federated tabular data augmentation methodであるfederated fed-tdaを提案する。
fed-tdaの中核となる考え方は、単純な統計(各列の分布や大域的共分散など)を用いてデータ拡張のための表データ合成である。
具体的には、先行学習した統計値に基づいて、雑音から連続列と離散列をそれぞれ合成する多モード分布変換と逆累積分布写像を提案する。
さらに,feed-tdaはデータのプライバシを保持するだけでなく,元のデータの分散と列間の相関を維持していることを理論的に解析する。
5つの実世界の表付きデータセットに関する広範な実験を通じて、テスト性能と通信効率の最先端性よりもFed-TDAの方が優れていることを示す。
関連論文リスト
- Generative AI-Powered Plugin for Robust Federated Learning in Heterogeneous IoT Networks [3.536605202672355]
フェデレーション学習により、エッジデバイスは、データのローカライズを維持しながら、データのプライバシを維持しながら、グローバルモデルを協調的にトレーニングすることが可能になる。
我々は,AI強化データ拡張と均衡サンプリング戦略により,IIDからIDDへの非IIDデータ分布を近似する,フェデレーション最適化技術のための新しいプラグインを提案する。
論文 参考訳(メタデータ) (2024-10-31T11:13:47Z) - TabDiff: a Multi-Modal Diffusion Model for Tabular Data Generation [91.50296404732902]
1つのモデルで表データのマルチモーダル分布をモデル化する共同拡散フレームワークであるTabDiffを紹介する。
我々の重要な革新は、数値データと分類データのための連立連続時間拡散プロセスの開発である。
TabDiffは、既存の競合ベースラインよりも優れた平均性能を実現し、ペアワイドカラム相関推定における最先端モデルよりも最大で22.5%改善されている。
論文 参考訳(メタデータ) (2024-10-27T22:58:47Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - FedTabDiff: Federated Learning of Diffusion Probabilistic Models for
Synthetic Mixed-Type Tabular Data Generation [5.824064631226058]
textitFederated Tabular Diffusion (FedTabDiff) を導入し、元のデータセットに一元的にアクセスすることなく、高忠実な混合型表型データを生成する。
FedTabDiffは、データプライバシとローカリティを尊重しながら、複数のエンティティが共同で生成モデルをトレーニングできるようにする分散学習方式を実現する。
実世界の金融および医療データセットに関する実験的評価は、高い忠実性、ユーティリティ、プライバシ、カバレッジを維持する合成データを生成するフレームワークの能力を実証している。
論文 参考訳(メタデータ) (2024-01-11T21:17:50Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Simple Data Augmentation for Feature Distribution Skewed Federated
Learning [12.636154758643757]
フェデレートラーニング(FL)は、複数のクライアント間の協調学習を分散的に支援し、プライバシ保護を保証する。
本稿では,現実世界のアプリケーションに広く普及しているFLシナリオの特徴分布に着目した。
特徴分布スキュードFLの簡易かつ極めて効果的なデータ拡張法であるFedRDNを提案する。
論文 参考訳(メタデータ) (2023-06-14T05:46:52Z) - FedWon: Triumphing Multi-domain Federated Learning Without Normalization [50.49210227068574]
フェデレートラーニング(FL)は、分散クライアントでの協調的なインサイトトレーニングによって、データのプライバシを高める。
しかし、フェデレーテッド・ラーニング(FL)は、非独立で同一に分散された(非i.d)データのために困難に直面する。
本稿では,FLにおける多領域問題に対処するため,FedWon(Federated Learning Without normalizations)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-09T13:18:50Z) - Mitigating Data Absence in Federated Learning Using Privacy-Controllable Data Digests [12.65383500988952]
フェデレートラーニングとデータダイジェスト(FedDig)フレームワークを紹介します。
FedDigは、新しいプライバシー管理可能なデータダイジェスト表現を使用して、予期しない配布変更を管理する。
さまざまなデータ欠如のシナリオにおいて、5つのベースラインアルゴリズムをかなり上回ります。
論文 参考訳(メタデータ) (2022-10-03T06:54:44Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Fed-TGAN: Federated Learning Framework for Synthesizing Tabular Data [8.014848609114154]
我々は,タブラルガンのための最初のフェデレート学習フレームワークであるFed-TGANを提案する。
非同一人物の複雑なGANを効果的に学習するために、Fed-TGANは2つの新しい特徴を設計する。
その結果,Fed-TGANはエポックあたりのトレーニング時間を最大200%まで加速することがわかった。
論文 参考訳(メタデータ) (2021-08-18T01:47:36Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。