論文の概要: Privacy Preserving Diffusion Models for Mixed-Type Tabular Data Generation
- arxiv url: http://arxiv.org/abs/2512.00638v1
- Date: Sat, 29 Nov 2025 21:23:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.338091
- Title: Privacy Preserving Diffusion Models for Mixed-Type Tabular Data Generation
- Title(参考訳): 混合型タブラリデータ生成のためのプライバシー保護拡散モデル
- Authors: Timur Sattarov, Marco Schreyer, Damian Borth,
- Abstract要約: 混合型表データを合成するための微分プライベート拡散フレームワークDP-FinDiffを紹介する。
DP-FinDiffは、エンコーディングのオーバーヘッドを減らし、高次元データセットへのスケールを減らし、カテゴリ機能に埋め込みベースの表現を使用している。
金融と医療のデータセットでは、DP-FinDiffは、同等のプライバシーレベルでDPベースラインよりも16~42%高いユーティリティを実現している。
- 参考スコア(独自算出の注目度): 8.857443660746979
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce DP-FinDiff, a differentially private diffusion framework for synthesizing mixed-type tabular data. DP-FinDiff employs embedding-based representations for categorical features, reducing encoding overhead and scaling to high-dimensional datasets. To adapt DP-training to the diffusion process, we propose two privacy-aware training strategies: an adaptive timestep sampler that aligns updates with diffusion dynamics, and a feature-aggregated loss that mitigates clipping-induced bias. Together, these enhancements improve fidelity and downstream utility without weakening privacy guarantees. On financial and medical datasets, DP-FinDiff achieves 16-42% higher utility than DP baselines at comparable privacy levels, demonstrating its promise for safe and effective data sharing in sensitive domains.
- Abstract(参考訳): 混合型表データを合成するための微分プライベート拡散フレームワークDP-FinDiffを紹介する。
DP-FinDiffは、エンコーディングのオーバーヘッドを減らし、高次元データセットへのスケールを減らし、カテゴリ機能に埋め込みベースの表現を使用している。
本研究では,DP学習を拡散過程に適応させるために,更新を拡散力学に整合させる適応時間ステップサンプリングと,クリッピングによるバイアスを軽減する機能集約損失という,プライバシに配慮した2つのトレーニング戦略を提案する。
これらの強化は、プライバシー保証を弱めることなく、忠実さと下流ユーティリティを改善します。
金融と医療のデータセットでは、DP-FinDiffはDPベースラインよりも16~42%高いユーティリティを同等のプライバシレベルで達成している。
関連論文リスト
- Improving Noise Efficiency in Privacy-preserving Dataset Distillation [59.57846442477106]
本稿では,最適化からサンプリングを分離してコンバージェンスを向上し,信号品質を向上させる新しいフレームワークを提案する。
CIFAR-10では,従来の最先端手法の蒸留セットサイズを5分の1に減らして,クラス毎50イメージでtextbf10.0%,クラス毎50イメージで textbf8.3%向上した。
論文 参考訳(メタデータ) (2025-08-03T13:15:52Z) - Federated Diffusion Modeling with Differential Privacy for Tabular Data Synthesis [8.857443660746979]
本稿では,差分プライバシー,フェデレーション学習,拡散確率モデルを新たに統合したDP-FedTabDiffフレームワークを紹介する。
このフレームワークは、データユーティリティを維持しながら、プライバシ規制の遵守を保証する。
論文 参考訳(メタデータ) (2024-12-20T17:30:58Z) - Differentially Private Fine-Tuning of Diffusion Models [22.454127503937883]
微分プライバシーと拡散モデル(DM)の統合は、有望だが挑戦的なフロンティアを示している。
この分野での最近の進歩は、公開データによる事前学習によって高品質な合成データを生成する可能性を強調している。
本稿では,プライバシとユーティリティのトレードオフを高めるために,トレーニング可能なパラメータの数を最小限に抑える,プライベート拡散モデルに最適化された戦略を提案する。
論文 参考訳(メタデータ) (2024-06-03T14:18:04Z) - DP-TLDM: Differentially Private Tabular Latent Diffusion Model [13.153278585144355]
合成データテーブルの高品質化とプライバシーリスクの低減を図るため,DPTLDM,differially Private Tabular Latent Diffusion Modelを提案する。
DPTLDMは,データ類似度の平均35%,下流タスクの実用性15%,データ識別性50%で,合成品質の向上を図っている。
論文 参考訳(メタデータ) (2024-03-12T17:27:49Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。