論文の概要: Differentially Private Decentralized Dataset Synthesis Through Randomized Mixing with Correlated Noise
- arxiv url: http://arxiv.org/abs/2509.10385v1
- Date: Fri, 12 Sep 2025 16:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.159805
- Title: Differentially Private Decentralized Dataset Synthesis Through Randomized Mixing with Correlated Noise
- Title(参考訳): ランダムミキシングと相関雑音による個人別分散データセット合成
- Authors: Utsab Saha, Tanvir Muntakim Tonoy, Hafiz Imtiaz,
- Abstract要約: 分散データ設定における差分プライベートな合成データ生成について検討する。
我々は最近提案された微分プライベートなクラス中心データアグリゲーションに基づいて構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we explore differentially private synthetic data generation in a decentralized-data setting by building on the recently proposed Differentially Private Class-Centric Data Aggregation (DP-CDA). DP-CDA synthesizes data in a centralized setting by mixing multiple randomly-selected samples from the same class and injecting carefully calibrated Gaussian noise, ensuring ({\epsilon}, {\delta})-differential privacy. When deployed in a decentralized or federated setting, where each client holds only a small partition of the data, DP-CDA faces new challenges. The limited sample size per client increases the sensitivity of local computations, requiring higher noise injection to maintain the differential privacy guarantee. This, in turn, leads to a noticeable degradation in the utility compared to the centralized setting. To mitigate this issue, we integrate the Correlation-Assisted Private Estimation (CAPE) protocol into the federated DP-CDA framework and propose CAPE Assisted Federated DP-CDA algorithm. CAPE enables limited collaboration among the clients by allowing them to generate jointly distributed (anti-correlated) noise that cancels out in aggregate, while preserving privacy at the individual level. This technique significantly improves the privacy-utility trade-off in the federated setting. Extensive experiments on MNIST and FashionMNIST datasets demonstrate that the proposed CAPE Assisted Federated DP-CDA approach can achieve utility comparable to its centralized counterpart under some parameter regime, while maintaining rigorous differential privacy guarantees.
- Abstract(参考訳): 本研究では,最近提案されたDP-CDAに基づく分散データ環境における差分プライベートな合成データ生成について検討する。
DP-CDAは、同じクラスからランダムに選択された複数のサンプルを混合し、慎重に校正されたガウスノイズを注入し、({\epsilon}, {\delta})微分プライバシーを確保することで、集中的にデータを合成する。
各クライアントがデータの小さなパーティションしか持たない分散あるいはフェデレートされた設定でデプロイされた場合、DP-CDAは新しい課題に直面します。
クライアント毎のサンプルサイズが制限されることにより、ローカル計算の感度が向上し、差分プライバシー保証を維持するためにノイズ注入がより高くなる。
これは、中央集権的な設定に比べて、ユーティリティの顕著な劣化につながります。
この問題を緩和するために、相関支援プライベート推定(CAPE)プロトコルをフェデレーションDP-CDAフレームワークに統合し、CAPE支援フェデレーションDP-CDAアルゴリズムを提案する。
CAPEは、個々のレベルでプライバシを保存すると同時に、合計でキャンセルされる共同分散(反相関)ノイズを発生させることで、クライアント間の限定的なコラボレーションを可能にします。
この技術は、フェデレートされた設定におけるプライバシユーティリティのトレードオフを大幅に改善する。
MNISTとFashionMNISTデータセットの大規模な実験により、提案されたCAPE Assisted Federated DP-CDAアプローチは、厳密な差分プライバシー保証を維持しながら、あるパラメータ体制下で集中型に匹敵するユーティリティを実現することができることを示した。
関連論文リスト
- Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - Federated Learning With Individualized Privacy Through Client Sampling [2.0432201743624456]
フェデレートラーニング(FL)における個別微分プライバシー(IDP)を実現するための適応的手法を提案する。
我々は、不均一なプライバシー予算に基づいてクライアント固有のサンプリングレートを計算し、修正IDP-FedAvgアルゴリズムに統合する。
実験の結果,DPベースラインの統一化により,プライバシとユーティリティのトレードオフを低減できることがわかった。
論文 参考訳(メタデータ) (2025-01-29T13:11:21Z) - Differentially Private Clustered Federated Learning [4.768272342753616]
フェデレートラーニング(FL)は、厳格なデータプライバシ保証を提供するために、しばしば差分プライバシ(DP)を取り入れる。
以前の研究は、クラスタリングクライアント(クラスタ化FL)を介してバニラFL設定における高構造データ不均一性に対処しようとした。
システム内のDPノイズに対して頑健で,基盤となるクライアントのクラスタを正しく識別する,差分プライベートクラスタリングFLのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:03:31Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。