論文の概要: Leveraging Semantic Triples for Private Document Generation with Local Differential Privacy Guarantees
- arxiv url: http://arxiv.org/abs/2508.20736v1
- Date: Thu, 28 Aug 2025 12:59:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.396217
- Title: Leveraging Semantic Triples for Private Document Generation with Local Differential Privacy Guarantees
- Title(参考訳): ローカル差分プライバシー保証による文書生成のためのセマンティックトリプルの活用
- Authors: Stephen Meisenbacher, Maulik Chevli, Florian Matthes,
- Abstract要約: DP-STは,局所的なDP保証の下で,近距離対応の私文書生成にセマンティック・トリプルを利用する。
本手法は,プライバシとユーティリティのバランスを保ちながら,バレプシロンの低い値でもコヒーレントなテキスト生成を可能にする。
- 参考スコア(独自算出の注目度): 18.487751624471777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many works at the intersection of Differential Privacy (DP) in Natural Language Processing aim to protect privacy by transforming texts under DP guarantees. This can be performed in a variety of ways, from word perturbations to full document rewriting, and most often under local DP. Here, an input text must be made indistinguishable from any other potential text, within some bound governed by the privacy parameter $\varepsilon$. Such a guarantee is quite demanding, and recent works show that privatizing texts under local DP can only be done reasonably under very high $\varepsilon$ values. Addressing this challenge, we introduce DP-ST, which leverages semantic triples for neighborhood-aware private document generation under local DP guarantees. Through the evaluation of our method, we demonstrate the effectiveness of the divide-and-conquer paradigm, particularly when limiting the DP notion (and privacy guarantees) to that of a privatization neighborhood. When combined with LLM post-processing, our method allows for coherent text generation even at lower $\varepsilon$ values, while still balancing privacy and utility. These findings highlight the importance of coherence in achieving balanced privatization outputs at reasonable $\varepsilon$ levels.
- Abstract(参考訳): 自然言語処理における微分プライバシ(DP)の交差点における多くの研究は、DP保証の下でテキストを変換することによってプライバシを保護することを目的としている。
これは、単語の摂動から完全な文書の書き直しに至るまで、様々な方法で実行され、多くの場合、ローカルDPの下で実行される。
ここでは、入力テキストは、プライバシーパラメータ$\varepsilon$によって支配されるいくつかの境界内で、他の潜在的なテキストと区別できなければならない。
このような保証は非常に要求があり、最近の研究は、ローカルDPの下での民営化は、非常に高い$\varepsilon$の値の下でのみ合理的に行うことができることを示している。
この課題に対処するために、DP-STを導入し、ローカルDP保証の下で、近隣対応のプライベート文書生成にセマンティックトリプルを活用する。
提案手法の評価を通じて,DP の概念(およびプライバシ保証)を民営化地区に限定する場合に,配当方式の有効性を実証する。
LLM後処理と組み合わせることで、プライバシとユーティリティのバランスを保ちながら、より低い$\varepsilon$値でもコヒーレントなテキスト生成が可能になる。
これらの結果は、バランスの取れた民営化出力を妥当な$\varepsilon$レベルで達成する上で、コヒーレンスの重要性を強調している。
関連論文リスト
- The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - DP-Fusion: Token-Level Differentially Private Inference for Large Language Models [37.73455762168357]
大規模言語モデル(LLM)は、誤って、あるいは逆向きに誘導されたときに、生成された出力を通じて、コンテキストからセンシティブな情報を漏洩することができる。
DP-Fusion はトークンレベルの微分プライベート推論(DPI)機構で,LLM の出力が,そのコンテキストにおける機密トークンについてどの程度の値を示すかを示す。
論文 参考訳(メタデータ) (2025-07-06T20:49:39Z) - Spend Your Budget Wisely: Towards an Intelligent Distribution of the Privacy Budget in Differentially Private Text Rewriting [3.0177210416625124]
テキスト文書中のトークンの構成にプライバシー予算を割り当てるのに使用される言語学およびNLPに基づく手法のツールキットを構築し,評価する。
我々の研究は、DPによるテキストの民営化の複雑さを強調し、さらに、DPによるテキストの書き直しにおける民営化のメリットを最大化するための、より効率的な方法を見つけることを求めている。
論文 参考訳(メタデータ) (2025-03-28T12:33:46Z) - Investigating User Perspectives on Differentially Private Text Privatization [81.59631769859004]
この研究は、$textitscenario$, $textitdata sensitivity$, $textitmechanism type$, $textitreason for data collection$, $textitreason for user preferences for text privatizationについて調査する。
これらの要因がプライバシー決定に影響を及ぼす一方で、ユーザはプライベートな出力テキストの有用性と一貫性に非常に敏感である、ということを学びました。
論文 参考訳(メタデータ) (2025-03-12T12:33:20Z) - On the Impact of Noise in Differentially Private Text Rewriting [3.0177210416625124]
そこで本稿では,DPテキストの書き直しにおけるノイズの影響を探索するために,新たな文埋込民営化手法を提案する。
実用性保護において非DP民営化技術が優れていることを実証的に示すとともに,実証的プライバシ保護においてDP手法を上回りつつも,許容可能な実証的プライバシユーティリティトレードオフを見出すことができることを示す。
論文 参考訳(メタデータ) (2025-01-31T10:45:24Z) - Differentially Private Synthetic Data via Foundation Model APIs 2: Text [56.13240830670327]
現実世界で生成された高品質なテキストデータはプライベートであり、プライバシー上の懸念から自由に共有したり、利用したりすることはできない。
テキストの複雑な設定に適用可能な拡張PEアルゴリズムであるAug-PEを提案する。
その結果, Aug-PE は SOTA DP の微調整ベースラインと競合する DP 合成テキストを生成することがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:57:50Z) - DP-BART for Privatized Text Rewriting under Local Differential Privacy [2.45626162429986]
本稿では,既存の LDP システムに大きく勝る新システム "DP-BART" を提案する。
提案手法では,新たなクリッピング手法,反復的プルーニング,およびDP保証に必要なノイズを劇的に低減する内部表現の訓練を用いる。
論文 参考訳(メタデータ) (2023-02-15T13:07:34Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。