論文の概要: dpmm: Differentially Private Marginal Models, a Library for Synthetic Tabular Data Generation
- arxiv url: http://arxiv.org/abs/2506.00322v1
- Date: Sat, 31 May 2025 00:23:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.775438
- Title: dpmm: Differentially Private Marginal Models, a Library for Synthetic Tabular Data Generation
- Title(参考訳): dpmm: 合成タブラルデータ生成のためのライブラリである差分プライベート・マージナルモデル
- Authors: Sofiane Mahiou, Amir Dizche, Reza Nazari, Xinmin Wu, Ralph Abbey, Jorge Silva, Georgi Ganev,
- Abstract要約: そこで我々は,差分プライベート(DP)保証付き合成データ生成のためのオープンソースライブラリdpmmを提案する。
PrivBayes、MST、AIMの3つの一般的な限界モデルが含まれており、優れたユーティリティを実現し、よりリッチな機能を提供する。
- 参考スコア(独自算出の注目度): 2.9526207670430384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose dpmm, an open-source library for synthetic data generation with Differentially Private (DP) guarantees. It includes three popular marginal models -- PrivBayes, MST, and AIM -- that achieve superior utility and offer richer functionality compared to alternative implementations. Additionally, we adopt best practices to provide end-to-end DP guarantees and address well-known DP-related vulnerabilities. Our goal is to accommodate a wide audience with easy-to-install, highly customizable, and robust model implementations. Our codebase is available from https://github.com/sassoftware/dpmm.
- Abstract(参考訳): そこで我々は,差分プライベート(DP)保証付き合成データ生成のためのオープンソースライブラリdpmmを提案する。
PrivBayes、MST、AIMの3つの一般的な限界モデルが含まれており、優れたユーティリティを実現し、代替実装よりもリッチな機能を提供する。
さらに、エンド・ツー・エンドのDP保証を提供し、よく知られたDP関連脆弱性に対処するためのベストプラクティスを採用しています。
私たちのゴールは、インストールが容易で、高度にカスタマイズ可能で、堅牢なモデル実装で、幅広いオーディエンスに対応することです。
私たちのコードベースはhttps://github.com/sassoftware/dpmm.comから入手可能です。
関連論文リスト
- The Importance of Being Discrete: Measuring the Impact of Discretization in End-to-End Differentially Private Synthetic Data [10.893644207618825]
そこで本研究では,差分プライベート(DP)生成限界モデルの文脈における4つの離散化戦略の測定を行った。
離散化器とビン数の選択を最適化することで,DPの限界モデル6モデルに対して,有効性を平均30%向上できることがわかった。
論文 参考訳(メタデータ) (2025-04-09T14:30:30Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Personalized DP-SGD using Sampling Mechanisms [5.50042037663784]
Phi$,$Delta$)- Personalized Differential Privacy (($Phi$,$Delta$)- PDP。
提案アルゴリズムは,複数ラウンドのパーソナライズされたサンプリング機構を使用し,DP-SGDイテレーションに組み込む。
実データを用いた実験の結果,提案アルゴリズムはDP-SGDとDP-SGDと既存のPDP機構の単純な組み合わせよりも優れていた。
論文 参考訳(メタデータ) (2023-05-24T13:56:57Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Locality Sensitive Hashing with Extended Differential Privacy [4.328040096675791]
拡張差分プライバシーは、一般的な計量を用いた標準差分プライバシーの一般化である。
拡張DPに関する既存の研究は、ユークリッド計量のようないくつかの指標に限られている。
角距離が拡張されたDPを提供する2つのメカニズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T11:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。