論文の概要: Secret-Protected Evolution for Differentially Private Synthetic Text Generation
- arxiv url: http://arxiv.org/abs/2510.10990v1
- Date: Mon, 13 Oct 2025 04:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.19329
- Title: Secret-Protected Evolution for Differentially Private Synthetic Text Generation
- Title(参考訳): 微分プライベートテキスト生成のためのシークレット・プロテクトレーション
- Authors: Tianze Wang, Zhaoyu Chen, Jian Du, Yingtai Xiao, Linjun Zhang, Qiang Yan,
- Abstract要約: SecPE(Secret-Protected Evolution)は、シークレット・アウェア・プロテクションによってプライベート・プロテクションを拡張する新しいフレームワークである。
SecPE が$(mathrmp, Mathrmr)$- Secret Protection を満たすことを示す。
その結果、SecPEはより実用的で効果的なプライバシー保護型合成テキスト生成を解放できることがわかった。
- 参考スコア(独自算出の注目度): 25.60898496792365
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text data has become extremely valuable on large language models (LLMs) and even lead to general artificial intelligence (AGI). A lot of high-quality text in the real world is private and cannot be freely used due to privacy concerns. Therefore, differentially private (DP) synthetic text generation has been proposed, aiming to produce high-utility synthetic data while protecting sensitive information. However, existing DP synthetic text generation imposes uniform guarantees that often overprotect non-sensitive content, resulting in substantial utility loss and computational overhead. Therefore, we propose Secret-Protected Evolution (SecPE), a novel framework that extends private evolution with secret-aware protection. Theoretically, we show that SecPE satisfies $(\mathrm{p}, \mathrm{r})$-secret protection, constituting a relaxation of Gaussian DP that enables tighter utility-privacy trade-offs, while also substantially reducing computational complexity relative to baseline methods. Empirically, across the OpenReview, PubMed, and Yelp benchmarks, SecPE consistently achieves lower Fr\'echet Inception Distance (FID) and higher downstream task accuracy than GDP-based Aug-PE baselines, while requiring less noise to attain the same level of protection. Our results highlight that secret-aware guarantees can unlock more practical and effective privacy-preserving synthetic text generation.
- Abstract(参考訳): テキストデータは、大規模言語モデル(LLM)において非常に価値が高くなり、汎用人工知能(AGI)にも繋がる。
現実世界の高品質なテキストの多くはプライベートであり、プライバシー上の懸念から自由に利用できない。
そのため、機密情報を保護しながら高ユーティリティな合成データを生成することを目的として、差分プライベート(DP)合成テキスト生成法が提案されている。
しかし、既存のDP合成テキスト生成は、しばしば非感度なコンテンツを過剰に保護し、実質的なユーティリティ損失と計算オーバーヘッドをもたらす、一様保証を課している。
そこで我々はSecPE(Secret-Protected Evolution)を提案する。
理論的には、SecPE は $(\mathrm{p}, \mathrm{r})$- Secret 保護を満足し、より厳密なユーティリティ・プライバシトレードオフを可能にするガウスDP の緩和を構成するとともに、ベースライン法に対する計算複雑性を著しく低減する。
実証的には、OpenReview、PubMed、Yelpのベンチマークを通じて、SecPEは一貫してFr\echet Inception Distance(FID)を低くし、GDPベースのAug-PEベースラインよりもダウンストリームタスクの精度を高くします。
以上の結果から,シークレット・アウェアの保証により,より実用的で効果的なプライバシー保護型合成テキスト生成が可能になることが示唆された。
関連論文リスト
- How to DP-fy Your Data: A Practical Guide to Generating Synthetic Data With Differential Privacy [52.00934156883483]
Differential Privacy(DP)は、情報漏洩を推論し、制限するフレームワークである。
Differentially Private Synthetic Dataは、ソースデータの全体的なトレンドを保存する合成データを指す。
論文 参考訳(メタデータ) (2025-12-02T21:14:39Z) - TextCrafter: Optimization-Calibrated Noise for Defending Against Text Embedding Inversion [0.13764085113103217]
テキスト埋め込みインバージョン攻撃は、潜在表現から原文を再構築し、協調推論とエッジコンピューティングにおいて深刻なプライバシー上の脅威を生じさせる。
本研究では, RL学習, 幾何を考慮したノイズ注入, クラスタ先行によるユーザ埋め込み, PII信号誘導を併用して, 作業性を維持しながらインバージョンを抑える, 最適化に基づく逆摂動機構であるTextCrafterを提案する。
論文 参考訳(メタデータ) (2025-09-22T00:51:20Z) - Privacy-Aware In-Context Learning for Large Language Models [12.605629953620495]
大型言語モデル(LLM)は、機密情報の潜在的な暴露によるプライバシー上の懸念を提起する。
プライバシー保証の強い高品質な合成テキストを生成するための,新たなプライベートな予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-17T01:50:32Z) - The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - RL-Finetuned LLMs for Privacy-Preserving Synthetic Rewriting [17.294176570269]
本稿では,複合報酬関数を用いた大規模言語モデル(LLM)を微調整する強化学習フレームワークを提案する。
プライバシ報酬は、セマンティックキューと、潜伏表現上の最小スパンニングツリー(MST)から派生した構造パターンを組み合わせる。
実験の結果,提案手法はセマンティック品質を劣化させることなく,著者の難読化とプライバシーの指標を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2025-08-25T04:38:19Z) - Privacy-Aware Decoding: Mitigating Privacy Leakage of Large Language Models in Retrieval-Augmented Generation [26.573578326262307]
プライバシ・アウェア・デコーディング(英: Privacy-Aware Decoding、PAD)は、ガウス雑音を発生時にトークンロジットに適応的に注入する軽量な推論時防御法である。
PADは信頼性ベースのスクリーニングを統合して、リスクの高いトークンを選択的に保護し、不要なノイズを最小限に抑える効率的な感度推定と、プライバシと生成品質のバランスをとるためのコンテキスト対応ノイズ校正を行う。
我々の研究は、機密ドメインにおける普遍的でスケーラブルなプライバシソリューションを実現するために、デコード戦略を通じて、RAGのプライバシリスクを軽減するための重要な一歩を踏み出しています。
論文 参考訳(メタデータ) (2025-08-05T05:22:13Z) - Differentially Private Synthetic Data via Foundation Model APIs 2: Text [56.13240830670327]
現実世界で生成された高品質なテキストデータはプライベートであり、プライバシー上の懸念から自由に共有したり、利用したりすることはできない。
テキストの複雑な設定に適用可能な拡張PEアルゴリズムであるAug-PEを提案する。
その結果, Aug-PE は SOTA DP の微調整ベースラインと競合する DP 合成テキストを生成することがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:57:50Z) - InferDPT: Privacy-Preserving Inference for Black-box Large Language Model [66.07752875835506]
InferDPTは、ブラックボックスLSMのプライバシ保護推論のための最初の実用的なフレームワークである。
RANTEXTはInferDPTの摂動モジュールに組み込まれた新しい微分プライバシー機構である。
論文 参考訳(メタデータ) (2023-10-18T18:00:11Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Synthetic Text Generation with Differential Privacy: A Simple and
Practical Recipe [32.63295550058343]
テキスト領域におけるシンプルで実用的なレシピは、強力なプライバシー保護を備えた有用な合成テキストを生成するのに有効であることを示す。
提案手法は,非私的テキストと実用性で競合する合成テキストを生成する。
論文 参考訳(メタデータ) (2022-10-25T21:21:17Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。