論文の概要: HeteroFedSyn: Differentially Private Tabular Data Synthesis for Heterogeneous Federated Settings
- arxiv url: http://arxiv.org/abs/2603.08832v1
- Date: Mon, 09 Mar 2026 18:44:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.760378
- Title: HeteroFedSyn: Differentially Private Tabular Data Synthesis for Heterogeneous Federated Settings
- Title(参考訳): HeteroFedSyn:不均一なフェデレーション設定のための微分プライベートタブラルデータ合成
- Authors: Xiaochen Li, Fengyu Gao, Xizixiang Wei, Tianhao Wang, Cong Shen, Jing Yang,
- Abstract要約: 我々は,新しいタイプの微分プライバシー(DP)データ合成フレームワークであるHeteroFedSynを提案する。
HeteroFedSynは、水平の連邦設定に特化して設計されている。
HeteroFedSynは、フェデレートされた実行に固有のノイズの増加にもかかわらず、集中型合成に匹敵する実用性を実現している。
- 参考スコア(独自算出の注目度): 19.298643158289906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Differential Privacy (DP) mechanisms are typically tailored to specific analysis tasks, which limits the reusability of protected data. DP tabular data synthesis overcomes this by generating synthetic datasets that can be shared for arbitrary downstream tasks. However, existing synthesis methods predominantly assume centralized or local settings and overlook the more practical horizontal federated scenario. Naively synthesizing data locally or perturbing individual records either produces biased mixtures or introduces excessive noise, especially under heterogeneous data distributions across participants. We propose HeteroFedSyn, the first DP tabular data synthesis framework designed specifically for the horizontal federated setting. Built upon the PrivSyn paradigm of 2-way marginal-based synthesis, HeteroFedSyn introduces three key innovations for distributed marginal selection: (i) an L2-based dependency metric with random projection for noise-efficient correlation measurement, (ii) an unbiased estimator to correct multiplicative noise, and (iii) an adaptive selection strategy that dynamically updates dependency scores to avoid redundancy. Extensive experiments on range queries, Wasserstein fidelity, and machine learning tasks show that, despite the increased noise inherent to federated execution, HeteroFedSyn achieves utility comparable to centralized synthesis. Our code is open-sourced via the link.
- Abstract(参考訳): 従来の差分プライバシー(DP)メカニズムは、通常、特定の分析タスクに合わせて調整され、保護されたデータの再利用性を制限する。
DP表データ合成は、任意の下流タスクで共有可能な合成データセットを生成することでこれを克服する。
しかし、既存の合成法は主に中央集権的あるいは局所的な設定を前提としており、より実用的な水平連合のシナリオを見落としている。
局所的にデータを合成するか、個々のレコードを摂動させるかは、偏りのある混合を発生させるか、過度なノイズを発生させる。
We propose HeteroFedSyn, a first DP tabular data synthesis framework designed for the horizontal federated set。
HeteroFedSynはPrivSynの2方向辺縁合成のパラダイムに基づいて、分散辺縁選択のための3つの重要なイノベーションを紹介している。
(i)雑音係数相関測定のためのランダムプロジェクション付きL2依存度
(二)乗算雑音を補正する不偏推定器、及び
三 依存性のスコアを動的に更新して冗長性を回避する適応的選択戦略。
レンジクエリ、Wassersteinフィデリティ、機械学習タスクに関する大規模な実験は、フェデレートされた実行固有のノイズの増加にもかかわらず、HeteroFedSynは集中型合成に匹敵するユーティリティを実現することを示している。
私たちのコードはリンクを通じてオープンソース化されています。
関連論文リスト
- Latent Noise Injection for Private and Statistically Aligned Synthetic Data Generation [7.240170769827935]
データの合成は、スケーラブルでプライバシー保護の統計分析に欠かせないものとなっている。
マスク付き自己回帰流(MAF)を用いた潜時ノイズ注入法を提案する。
トレーニングされたモデルから直接サンプリングする代わりに、我々のメソッドは潜在空間の各データポイントを摂動させ、それをデータドメインにマップします。
論文 参考訳(メタデータ) (2025-06-19T22:22:57Z) - Data-adaptive Differentially Private Prompt Synthesis for In-Context Learning [16.04405606517753]
大規模言語モデル(LLM)は、実例やデモに埋め込まれた文脈情報に依存して、文脈内学習(ICL)を行う。
我々は、AdaDPSynと呼ばれる新しいデータ適応微分プライベートアルゴリズムを導入し、プライベートデータセットから合成例を生成する。
AdaDPSynは、データ固有の統計特性に応じて、データ合成機構のノイズレベルを適応的に調整する。
論文 参考訳(メタデータ) (2024-10-15T22:06:30Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Combining propensity score methods with variational autoencoders for
generating synthetic data in presence of latent sub-groups [0.0]
ヘテロジニティは、例えば、サブグループラベルによって示されるように知られ、あるいは未知であり、双曲性や歪みのような分布の性質にのみ反映されるかもしれない。
本研究では,変分オートエンコーダ(VAE)から合成データを取得する際に,このような異種性をどのように保存し,制御するかを検討する。
論文 参考訳(メタデータ) (2023-12-12T22:49:24Z) - Distributed Traffic Synthesis and Classification in Edge Networks: A
Federated Self-supervised Learning Approach [83.2160310392168]
本稿では,多数の異種データセット上での自動トラフィック解析と合成を支援するFS-GANを提案する。
FS-GANは複数の分散ジェネレーティブ・アドバイサル・ネットワーク(GAN)から構成される
FS-GANは未知のサービスのデータを分類し、未知のタイプのトラフィック分布をキャプチャする合成サンプルを作成する。
論文 参考訳(メタデータ) (2023-02-01T03:23:11Z) - Federated Learning with GAN-based Data Synthesis for Non-IID Clients [8.304185807036783]
フェデレートラーニング(FL)は、最近、プライバシ保護のためのコラボレーティブラーニングパラダイムとして人気を博している。
我々は,合成データを共有することで,この非IID課題を解決するために,SDA-FL(Synthetic Data Aided Federated Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T11:43:25Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - XOR Mixup: Privacy-Preserving Data Augmentation for One-Shot Federated
Learning [49.130350799077114]
我々は、XorMixupという、プライバシー保護のためのXORベースのミックスアップデータ拡張技術を開発した。
中心となる考え方は、各デバイスのデータサンプルのみを使用してデコードされた、他のデバイスのエンコードされたデータサンプルを収集することである。
XorMixFLは、非IID MNISTデータセットの下で、Vanilla FLよりも最大17.6%高い精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T09:43:41Z) - Recent Developments Combining Ensemble Smoother and Deep Generative
Networks for Facies History Matching [58.720142291102135]
本研究は、ファシズムモデルのための連続パラメータ化を構築するためのオートエンコーダネットワークの利用に焦点を当てる。
本稿では,VAE,GAN,Wasserstein GAN,変分自動符号化GAN,サイクルGANの主成分分析(PCA),転送スタイルネットワークのPCA,スタイル損失のVAEの7種類の定式化をベンチマークする。
論文 参考訳(メタデータ) (2020-05-08T21:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。