論文の概要: FLAIM: AIM-based Synthetic Data Generation in the Federated Setting
- arxiv url: http://arxiv.org/abs/2310.03447v1
- Date: Thu, 5 Oct 2023 10:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:33:03.164710
- Title: FLAIM: AIM-based Synthetic Data Generation in the Federated Setting
- Title(参考訳): FLAIM: フェデレート設定におけるAIMに基づく合成データ生成
- Authors: Samuel Maddock, Graham Cormode, Carsten Maple
- Abstract要約: DistAIMとFLAIMは、プライベートデータの統計特性を反映した合成データを作成するために提案されている。
我々はAIMの配布が簡単であることを示し、セキュアなマルチパーティ計算に基づく最近のアプローチを拡張した。
以上の結果から, ナイーティブ・フェデレーション・AIMは, 不均一性の存在下, 実用性を著しく低下させる可能性が示唆された。
- 参考スコア(独自算出の注目度): 20.65779903000762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preserving individual privacy while enabling collaborative data sharing is
crucial for organizations. Synthetic data generation is one solution, producing
artificial data that mirrors the statistical properties of private data. While
numerous techniques have been devised under differential privacy, they
predominantly assume data is centralized. However, data is often distributed
across multiple clients in a federated manner. In this work, we initiate the
study of federated synthetic tabular data generation. Building upon a SOTA
central method known as AIM, we present DistAIM and FLAIM. We show it is
straightforward to distribute AIM, extending a recent approach based on secure
multi-party computation which necessitates additional overhead, making it less
suited to federated scenarios. We then demonstrate that naively federating AIM
can lead to substantial degradation in utility under the presence of
heterogeneity. To mitigate both issues, we propose an augmented FLAIM approach
that maintains a private proxy of heterogeneity. We simulate our methods across
a range of benchmark datasets under different degrees of heterogeneity and show
this can improve utility while reducing overhead.
- Abstract(参考訳): 個人のプライバシを維持しながら、協調的なデータ共有を可能にすることは、組織にとって重要です。
合成データ生成は、プライベートデータの統計特性を反映した人工データを生成する1つのソリューションである。
ディファレンシャルプライバシの下では、多くのテクニックが考案されているが、データの集中化を主に想定している。
しかし、データは複数のクライアントに分散して配布されることが多い。
本研究では,連合型合成表データ生成の研究を開始する。
AIM と呼ばれる SOTA 中央手法に基づいて,DistAIM と FLAIM を提示する。
我々はAIMの配布が簡単であることを示し、セキュアなマルチパーティ計算に基づく最近のアプローチを拡張し、追加のオーバーヘッドを必要とするため、フェデレーションシナリオには適さないことを示す。
以上の結果から, ナイーティブ・フェデレーション・AIMは, 不均一性の有無で実用性を大幅に劣化させる可能性が示唆された。
両問題を緩和するために、異質性のプライベートプロキシを維持する拡張FLAIMアプローチを提案する。
ヘテロジニティの度合いが異なるベンチマークデータセットの範囲でメソッドをシミュレートし、オーバーヘッドを減らしながら有効性を向上できることを示す。
関連論文リスト
- EPIC: Enhancing Privacy through Iterative Collaboration [4.199844472131922]
従来の機械学習技術は、中央集権的なデータ収集と処理を必要とする。
医療データを集中ストレージにプールする場合、プライバシ、オーナシップ、厳格な規制の問題が存在する。
フェデレートラーニング(FL)アプローチは、中央アグリゲータサーバと共有グローバルモデルを設定することで、そのような問題を克服する。
論文 参考訳(メタデータ) (2024-11-07T20:10:34Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - CaPS: Collaborative and Private Synthetic Data Generation from Distributed Sources [5.898893619901382]
分散データホルダから合成データの協調的かつプライベートな生成のためのフレームワークを提案する。
我々は信頼されたアグリゲータをセキュアなマルチパーティ計算プロトコルに置き換え、差分プライバシー(DP)を介してプライバシを出力する。
MWEM+PGMおよびAIMの最先端選択測度生成アルゴリズムに対するアプローチの適用性とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2024-02-13T17:26:32Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Mitigating Data Heterogeneity in Federated Learning with Data
Augmentation [26.226057709504733]
Federated Learning(FL)は、集中型モデルのトレーニングを可能にするフレームワークである。
主な障害の1つは、データ不均一性、すなわち、各クライアントが独立に独立に分散した(非IID)データを持っていることである。
最近の証拠は、データ拡張が同等またはそれ以上のパフォーマンスを誘導できることを示している。
論文 参考訳(メタデータ) (2022-06-20T19:47:43Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。