論文の概要: Privacy Amplification Persists under Unlimited Synthetic Data Release
- arxiv url: http://arxiv.org/abs/2602.04895v1
- Date: Tue, 03 Feb 2026 09:27:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.515896
- Title: Privacy Amplification Persists under Unlimited Synthetic Data Release
- Title(参考訳): 無制限の合成データリリース下でのプライバシ増幅パーシスト
- Authors: Clément Pierquin, Aurélien Bellet, Marc Tommasi, Matthieu Boussard,
- Abstract要約: 合成データのみを公開することによって、差分プライバシー保証を改善する現象である合成データリリースによるプライバシーの増幅について検討する。
Pierquin et al. (2025) による最近の研究は、線形発生器に対する最初の公式な増幅保証を確立したが、それらは、モデルが放出された合成レコードの数よりはるかに多いレジームにのみ適用される。
- 参考スコア(独自算出の注目度): 20.737120955639522
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We study privacy amplification by synthetic data release, a phenomenon in which differential privacy guarantees are improved by releasing only synthetic data rather than the private generative model itself. Recent work by Pierquin et al. (2025) established the first formal amplification guarantees for a linear generator, but they apply only in asymptotic regimes where the model dimension far exceeds the number of released synthetic records, limiting their practical relevance. In this work, we show a surprising result: under a bounded-parameter assumption, privacy amplification persists even when releasing an unbounded number of synthetic records, thereby improving upon the bounds of Pierquin et al. (2025). Our analysis provides structural insights that may guide the development of tighter privacy guarantees for more complex release mechanisms.
- Abstract(参考訳): 本稿では,合成データ公開によるプライバシーの増幅について検討する。これは,プライベート生成モデル自体よりも,合成データのみを公開することによって,差分プライバシー保証を改善する現象である。
Pierquin et al (2025) による最近の研究は、線形発生器に対する最初の公式な増幅保証を確立したが、それらは、モデル次元が放出された合成レコードの数よりはるかに多い漸近的な状態においてのみ適用され、それらの実用的関連性は制限された。
本研究では,境界パラメータの仮定の下では,無境界数の合成レコードを公開してもプライバシーの増幅が持続し,Pierquin et al (2025)のバウンダリを改良する,という驚くべき結果を示す。
我々の分析は、より複雑なリリースメカニズムのための厳密なプライバシー保証の開発を導く構造的な洞察を提供する。
関連論文リスト
- Sensitivity, Specificity, and Consistency: A Tripartite Evaluation of Privacy Filters for Synthetic Data Generation [57.13635002340272]
個人識別可能な情報を含むサンプルを除去するためのポストホックプライバシーフィルタリング技術が提案されている。
本研究は胸部X線合成に適用した濾過パイプラインの厳密な評価を行う。
これらの手法がセンシティブなアプリケーションに確実にデプロイされるためには,フィルタ設計の大幅な進歩が必要であると結論付けている。
論文 参考訳(メタデータ) (2025-10-02T08:32:20Z) - Privacy Amplification Through Synthetic Data: Insights from Linear Regression [14.00448138862085]
ランダムな入力から合成データが生成されると、限られた数の合成データポイントが、モデル固有の保証以上のプライバシーを増幅することを示す。
線形回帰に関する我々の発見は、将来的にはより一般的な境界を導出するための基礎となると信じている。
論文 参考訳(メタデータ) (2025-06-05T14:44:15Z) - Practical considerations on using private sampling for synthetic data [1.3654846342364308]
合成データ生成の異なるプライバシは、合成データを自由に使用しながらプライバシを保存する能力のために、多くの注目を集めている。
プライベートサンプリングは、プライバシーと正確性のために厳密な境界を持つ微分プライベートな合成データを構築する最初のノイズフリー手法である。
本稿では,プライベートサンプリングアルゴリズムの実装と,実例における制約の現実性について議論する。
論文 参考訳(メタデータ) (2023-12-12T10:20:04Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Differentially Private Diffusion Models Generate Useful Synthetic Images [53.94025967603649]
近年の研究では、いくつかの拡散モデルの出力がトレーニングデータのプライバシを保持していないことが報告されている。
CIFAR-10 と Camelyon17 のSOTA 結果を得た。
以上の結果から,差分プライバシーで微調整された拡散モデルが有用かつ実証可能なプライベートな合成データを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-02-27T15:02:04Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against Synthetic Data [1.5293427903448022]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Synthetic Text Generation with Differential Privacy: A Simple and
Practical Recipe [32.63295550058343]
テキスト領域におけるシンプルで実用的なレシピは、強力なプライバシー保護を備えた有用な合成テキストを生成するのに有効であることを示す。
提案手法は,非私的テキストと実用性で競合する合成テキストを生成する。
論文 参考訳(メタデータ) (2022-10-25T21:21:17Z) - Stronger Privacy Amplification by Shuffling for R\'enyi and Approximate
Differential Privacy [43.33288245778629]
このモデルにおける重要な結果は、ランダムにランダム化されたデータをランダムにシャッフルすると、差分プライバシー保証が増幅されることである。
このような増幅は、匿名でデータが提供されるシステムにおいて、はるかに強力なプライバシー保証を意味する。
本研究では,理論的にも数値的にも,アートプライバシの増幅状態を改善する。
論文 参考訳(メタデータ) (2022-08-09T08:13:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。