論文の概要: Risk-Equalized Differentially Private Synthetic Data: Protecting Outliers by Controlling Record-Level Influence
- arxiv url: http://arxiv.org/abs/2602.10232v1
- Date: Tue, 10 Feb 2026 19:22:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.25027
- Title: Risk-Equalized Differentially Private Synthetic Data: Protecting Outliers by Controlling Record-Level Influence
- Title(参考訳): リスク等化差分私的合成データ:記録レベルの影響を制御して外乱を保護する
- Authors: Amir Asiaee, Chao Yan, Zachary B. Abrams, Bradley A. Malin,
- Abstract要約: リスク等化DP合成は,リスクの高いレコードの保護を優先するフレームワークである。
ガウスのメカニズムの下では、レコードのプライバシー損失は出力への影響に比例する。
実験により、リスク重み付けは、高出力レコードに対するメンバーシップ推論の成功を著しく減少させることが示された。
- 参考スコア(独自算出の注目度): 9.016539021471845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When synthetic data is released, some individuals are harder to protect than others. A patient with a rare disease combination or a transaction with unusual characteristics stands out from the crowd. Differential privacy provides worst-case guarantees, but empirical attacks -- particularly membership inference -- succeed far more often against such outliers, especially under moderate privacy budgets and with auxiliary information. This paper introduces risk-equalized DP synthesis, a framework that prioritizes protection for high-risk records by reducing their influence on the learned generator. The mechanism operates in two stages: first, a small privacy budget estimates each record's "outlierness"; second, a DP learning procedure weights each record inversely to its risk score. Under Gaussian mechanisms, a record's privacy loss is proportional to its influence on the output -- so deliberately shrinking outliers' contributions yields tighter per-instance privacy bounds for precisely those records that need them most. We prove end-to-end DP guarantees via composition and derive closed-form per-record bounds for the synthesis stage (the scoring stage adds a uniform per-record term). Experiments on simulated data with controlled outlier injection show that risk-weighting substantially reduces membership inference success against high-outlierness records; ablations confirm that targeting -- not random downweighting -- drives the improvement. On real-world benchmarks (Breast Cancer, Adult, German Credit), gains are dataset-dependent, highlighting the interplay between scorer quality and synthesis pipeline.
- Abstract(参考訳): 合成データが放出されると、他の個体よりも保護が難しい個体もある。
稀な疾患の組み合わせまたは異常な特徴を持つ取引を持つ患者は、群衆から際立っている。
差別化されたプライバシーは最悪の場合の保証を提供するが、経験的な攻撃、特にメンバーシップの推測は、特に穏健なプライバシー予算や補助的な情報の下で、このような不利な状況に対して、はるかに頻繁に成功している。
本稿では,高リスクレコードの保護を優先するフレームワークであるリスク等化DP合成について紹介する。
まず、小さなプライバシー予算が各レコードの「外部性」を推定し、次に、DP学習手順が各レコードをそのリスクスコアに逆向きに重み付けする。
ガウスのメカニズムの下では、レコードのプライバシー損失は出力への影響に比例する。
我々は,合成段階に対して,構成と閉形式毎のレコード境界を導出することにより,エンドツーエンドのDP保証を証明した(スコアリング段階には均一な記録項が付加される)。
制御された外れ値注入によるシミュレーションデータの実験によると、リスク重み付けは、高い外れ値の記録に対する会員推測の成功を著しく減少させる。
実世界のベンチマーク(Breast Cancer, adult, German Credit)では、ゲインがデータセットに依存しており、スコアラーの品質と合成パイプライン間の相互作用を強調している。
関連論文リスト
- Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - Correlated-Sequence Differential Privacy [32.411989837842086]
Correlated-Sequence Differential Privacy (CSDP) は、関連するシーケンシャルデータにプライバシを保存するために設計されている。
CSDPは、2つの関連する課題に対処する: 攻撃者が共同時間リンクとクロスシーケンスリンクから得られる余分な情報を定量化し、その情報を隠すのに十分なノイズを追加する。
2シーケンスデータセットのテストでは、CSDPは既存の相関DPメソッドに比べて、プライバシーとユーティリティのトレードオフを約50%改善している。
論文 参考訳(メタデータ) (2025-11-22T11:28:59Z) - Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries [17.780319275883127]
差別化プライバシ(differial Privacy)は、メカニズムの最悪のプライバシー漏洩に結びつく定義のファミリーである。
この研究は、現実のプライバシーリスクを代表する攻撃者の成功について、DPの最悪の保証がどんな意味を持つのかを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-10T20:36:31Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Improving the Variance of Differentially Private Randomized Experiments through Clustering [16.166525280886578]
差分的プライベートなメカニズムであるCluster-DPを提案する。
より高品質なクラスタを選択することで,プライバシー保証を損なうことなく,分散ペナルティを低減できることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。