論文の概要: The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization
- arxiv url: http://arxiv.org/abs/2508.18976v1
- Date: Tue, 26 Aug 2025 12:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.835943
- Title: The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization
- Title(参考訳): LLMデータ再構成の両端剣--単語レベルの差分プライバシーテキスト衛生における文脈脆弱性の理解と緩和-
- Authors: Stephen Meisenbacher, Alexandra Klymenko, Andreea-Elena Bodea, Florian Matthes,
- Abstract要約: 我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
- 参考スコア(独自算出の注目度): 53.51921540246166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially private text sanitization refers to the process of privatizing texts under the framework of Differential Privacy (DP), providing provable privacy guarantees while also empirically defending against adversaries seeking to harm privacy. Despite their simplicity, DP text sanitization methods operating at the word level exhibit a number of shortcomings, among them the tendency to leave contextual clues from the original texts due to randomization during sanitization $\unicode{x2013}$ this we refer to as $\textit{contextual vulnerability}$. Given the powerful contextual understanding and inference capabilities of Large Language Models (LLMs), we explore to what extent LLMs can be leveraged to exploit the contextual vulnerability of DP-sanitized texts. We expand on previous work not only in the use of advanced LLMs, but also in testing a broader range of sanitization mechanisms at various privacy levels. Our experiments uncover a double-edged sword effect of LLM-based data reconstruction attacks on privacy and utility: while LLMs can indeed infer original semantics and sometimes degrade empirical privacy protections, they can also be used for good, to improve the quality and privacy of DP-sanitized texts. Based on our findings, we propose recommendations for using LLM data reconstruction as a post-processing step, serving to increase privacy protection by thinking adversarially.
- Abstract(参考訳): 差別的私的テキストサニタイズ(differially private text sanitization)とは、差別的プライバシ(DP)の枠組みの下でテキストを民営化するプロセスのことであり、プライバシーの保証を提供すると同時に、プライバシーを害しようとする敵に対して実証的に防御する。
その単純さにもかかわらず、単語レベルで動作しているDPテキストのサニタイズ方法には、多くの欠点があり、その中には、サニタイズ時にランダム化によって元のテキストから文脈的なヒントを残す傾向がある。
LLM(Large Language Models)の文脈的理解と推論能力を考えると,LLMがどの程度活用できるかを調べ,DP対応テキストの文脈的脆弱性を活用する。
我々は、先進的なLCMの使用だけでなく、様々なプライバシーレベルで広範囲の衛生メカニズムをテストする際にも、これまでの取り組みを拡大する。
我々の実験は、LLMベースのデータ再構成攻撃による、プライバシーとユーティリティに対する二重刃の剣効果を明らかにした: LLMは、実際にオリジナルのセマンティクスを推測し、時には経験的なプライバシー保護を低下させることができるが、DP対応のテキストの品質とプライバシを改善するために、良いためにも使用できる。
本研究は,LLMデータ再構成を後処理のステップとして活用し,逆向きに考えることでプライバシー保護を高めることを提案する。
関連論文リスト
- Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。