論文の概要: Secret-Protected Evolution for Differentially Private Synthetic Text Generation
- arxiv url: http://arxiv.org/abs/2510.10990v1
- Date: Mon, 13 Oct 2025 04:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.19329
- Title: Secret-Protected Evolution for Differentially Private Synthetic Text Generation
- Title(参考訳): 微分プライベートテキスト生成のためのシークレット・プロテクトレーション
- Authors: Tianze Wang, Zhaoyu Chen, Jian Du, Yingtai Xiao, Linjun Zhang, Qiang Yan,
- Abstract要約: SecPE(Secret-Protected Evolution)は、シークレット・アウェア・プロテクションによってプライベート・プロテクションを拡張する新しいフレームワークである。
SecPE が$(mathrmp, Mathrmr)$- Secret Protection を満たすことを示す。
その結果、SecPEはより実用的で効果的なプライバシー保護型合成テキスト生成を解放できることがわかった。
- 参考スコア(独自算出の注目度): 25.60898496792365
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text data has become extremely valuable on large language models (LLMs) and even lead to general artificial intelligence (AGI). A lot of high-quality text in the real world is private and cannot be freely used due to privacy concerns. Therefore, differentially private (DP) synthetic text generation has been proposed, aiming to produce high-utility synthetic data while protecting sensitive information. However, existing DP synthetic text generation imposes uniform guarantees that often overprotect non-sensitive content, resulting in substantial utility loss and computational overhead. Therefore, we propose Secret-Protected Evolution (SecPE), a novel framework that extends private evolution with secret-aware protection. Theoretically, we show that SecPE satisfies $(\mathrm{p}, \mathrm{r})$-secret protection, constituting a relaxation of Gaussian DP that enables tighter utility-privacy trade-offs, while also substantially reducing computational complexity relative to baseline methods. Empirically, across the OpenReview, PubMed, and Yelp benchmarks, SecPE consistently achieves lower Fr\'echet Inception Distance (FID) and higher downstream task accuracy than GDP-based Aug-PE baselines, while requiring less noise to attain the same level of protection. Our results highlight that secret-aware guarantees can unlock more practical and effective privacy-preserving synthetic text generation.
- Abstract(参考訳): テキストデータは、大規模言語モデル(LLM)において非常に価値が高くなり、汎用人工知能(AGI)にも繋がる。
現実世界の高品質なテキストの多くはプライベートであり、プライバシー上の懸念から自由に利用できない。
そのため、機密情報を保護しながら高ユーティリティな合成データを生成することを目的として、差分プライベート(DP)合成テキスト生成法が提案されている。
しかし、既存のDP合成テキスト生成は、しばしば非感度なコンテンツを過剰に保護し、実質的なユーティリティ損失と計算オーバーヘッドをもたらす、一様保証を課している。
そこで我々はSecPE(Secret-Protected Evolution)を提案する。
理論的には、SecPE は $(\mathrm{p}, \mathrm{r})$- Secret 保護を満足し、より厳密なユーティリティ・プライバシトレードオフを可能にするガウスDP の緩和を構成するとともに、ベースライン法に対する計算複雑性を著しく低減する。
実証的には、OpenReview、PubMed、Yelpのベンチマークを通じて、SecPEは一貫してFr\echet Inception Distance(FID)を低くし、GDPベースのAug-PEベースラインよりもダウンストリームタスクの精度を高くします。
以上の結果から,シークレット・アウェアの保証により,より実用的で効果的なプライバシー保護型合成テキスト生成が可能になることが示唆された。
関連論文リスト
- Privacy-Aware In-Context Learning for Large Language Models [12.605629953620495]
大型言語モデル(LLM)は、機密情報の潜在的な暴露によるプライバシー上の懸念を提起する。
プライバシー保証の強い高品質な合成テキストを生成するための,新たなプライベートな予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-17T01:50:32Z) - Differentially Private Synthetic Data via Foundation Model APIs 2: Text [56.13240830670327]
現実世界で生成された高品質なテキストデータはプライベートであり、プライバシー上の懸念から自由に共有したり、利用したりすることはできない。
テキストの複雑な設定に適用可能な拡張PEアルゴリズムであるAug-PEを提案する。
その結果, Aug-PE は SOTA DP の微調整ベースラインと競合する DP 合成テキストを生成することがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:57:50Z) - InferDPT: Privacy-Preserving Inference for Black-box Large Language Model [66.07752875835506]
InferDPTは、ブラックボックスLSMのプライバシ保護推論のための最初の実用的なフレームワークである。
RANTEXTはInferDPTの摂動モジュールに組み込まれた新しい微分プライバシー機構である。
論文 参考訳(メタデータ) (2023-10-18T18:00:11Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Synthetic Text Generation with Differential Privacy: A Simple and
Practical Recipe [32.63295550058343]
テキスト領域におけるシンプルで実用的なレシピは、強力なプライバシー保護を備えた有用な合成テキストを生成するのに有効であることを示す。
提案手法は,非私的テキストと実用性で競合する合成テキストを生成する。
論文 参考訳(メタデータ) (2022-10-25T21:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。