論文の概要: The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization
- arxiv url: http://arxiv.org/abs/2508.18976v1
- Date: Tue, 26 Aug 2025 12:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.835943
- Title: The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization
- Title(参考訳): LLMデータ再構成の両端剣--単語レベルの差分プライバシーテキスト衛生における文脈脆弱性の理解と緩和-
- Authors: Stephen Meisenbacher, Alexandra Klymenko, Andreea-Elena Bodea, Florian Matthes,
- Abstract要約: 我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
- 参考スコア(独自算出の注目度): 53.51921540246166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially private text sanitization refers to the process of privatizing texts under the framework of Differential Privacy (DP), providing provable privacy guarantees while also empirically defending against adversaries seeking to harm privacy. Despite their simplicity, DP text sanitization methods operating at the word level exhibit a number of shortcomings, among them the tendency to leave contextual clues from the original texts due to randomization during sanitization $\unicode{x2013}$ this we refer to as $\textit{contextual vulnerability}$. Given the powerful contextual understanding and inference capabilities of Large Language Models (LLMs), we explore to what extent LLMs can be leveraged to exploit the contextual vulnerability of DP-sanitized texts. We expand on previous work not only in the use of advanced LLMs, but also in testing a broader range of sanitization mechanisms at various privacy levels. Our experiments uncover a double-edged sword effect of LLM-based data reconstruction attacks on privacy and utility: while LLMs can indeed infer original semantics and sometimes degrade empirical privacy protections, they can also be used for good, to improve the quality and privacy of DP-sanitized texts. Based on our findings, we propose recommendations for using LLM data reconstruction as a post-processing step, serving to increase privacy protection by thinking adversarially.
- Abstract(参考訳): 差別的私的テキストサニタイズ(differially private text sanitization)とは、差別的プライバシ(DP)の枠組みの下でテキストを民営化するプロセスのことであり、プライバシーの保証を提供すると同時に、プライバシーを害しようとする敵に対して実証的に防御する。
その単純さにもかかわらず、単語レベルで動作しているDPテキストのサニタイズ方法には、多くの欠点があり、その中には、サニタイズ時にランダム化によって元のテキストから文脈的なヒントを残す傾向がある。
LLM(Large Language Models)の文脈的理解と推論能力を考えると,LLMがどの程度活用できるかを調べ,DP対応テキストの文脈的脆弱性を活用する。
我々は、先進的なLCMの使用だけでなく、様々なプライバシーレベルで広範囲の衛生メカニズムをテストする際にも、これまでの取り組みを拡大する。
我々の実験は、LLMベースのデータ再構成攻撃による、プライバシーとユーティリティに対する二重刃の剣効果を明らかにした: LLMは、実際にオリジナルのセマンティクスを推測し、時には経験的なプライバシー保護を低下させることができるが、DP対応のテキストの品質とプライバシを改善するために、良いためにも使用できる。
本研究は,LLMデータ再構成を後処理のステップとして活用し,逆向きに考えることでプライバシー保護を高めることを提案する。
関連論文リスト
- When Privacy Meets Recovery: The Overlooked Half of Surrogate-Driven Privacy Preservation for MLLM Editing [61.80513991207956]
この研究は、さまざまなMLLMシナリオでサロゲート駆動の保護されたデータを復元する方法の課題に焦点を当てている。
私たちはまず、SPPE(Surrogate Privacy Protected Editable)データセットの提供によって、この研究ギャップを埋めます。
MLLM生成編集の忠実さを保ちながら、プライベートコンテンツを確実に再構築する統一的な手法を提案する。
論文 参考訳(メタデータ) (2025-12-08T04:59:03Z) - DP-Fusion: Token-Level Differentially Private Inference for Large Language Models [51.71591819896191]
大規模言語モデル(LLM)は、推論時にプライバシを保存しない。
DP-Fusion は LLM の出力にコンテキスト内のトークンの集合が持つ影響を証明的に束縛する。
提案手法は, 理論的および実証的プライバシを大幅に改善した, 証明可能な民営化文書を作成する。
論文 参考訳(メタデータ) (2025-07-06T20:49:39Z) - SoK: Semantic Privacy in Large Language Models [24.99241770349404]
本稿では,大規模言語モデル(LLM)の入力処理,事前学習,微調整,アライメント段階におけるセマンティックプライバシリスクを分析するライフサイクル中心のフレームワークを提案する。
我々は、鍵攻撃ベクトルを分類し、差分プライバシー、埋め込み暗号化、エッジコンピューティング、未学習などの現在の防御がこれらの脅威にどのように対処しているかを評価する。
セマンティックリークの定量化、マルチモーダル入力の保護、生成品質との非識別性のバランス、プライバシー保護の透明性確保など、オープンな課題の概要をまとめて結論付けます。
論文 参考訳(メタデータ) (2025-06-30T08:08:15Z) - Truthful Text Sanitization Guided by Inference Attacks [3.3802914883339557]
そこで本研究では,原文のセマンティックな内容をサブセットとした一般化に基づく新しいテキスト衛生手法を提案する。
このアプローチは命令チューニングされた大規模言語モデル(LLM)の使用に依存しており、2つの段階に分けられる。
Text Anonymization Benchmarkの結果、Mistral 7B Instructで実装された提案手法は、実用性の向上につながることが示された。
論文 参考訳(メタデータ) (2024-12-17T14:07:01Z) - Preempting Text Sanitization Utility in Resource-Constrained Privacy-Preserving LLM Interactions [4.372695214012181]
このような衛生的なプロンプト上でのLCMの性能を予測することは困難であることを示す。
粗悪なパフォーマンスは、パーユースモデルで課金されるLCMサービスに対して明らかな金銭的結果をもたらす。
本稿では,LLMに送信される前に,与えられた衛生的プロンプトの有用性を予測するために,小言語モデルを利用したアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-18T12:31:22Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Hide and Seek (HaS): A Lightweight Framework for Prompt Privacy
Protection [6.201275002179716]
本稿では,H(ide)" と "S(eek)" の2つのコアプロセスとして,匿名化のためのプライベートエンティティの隠蔽と非匿名化のためのプライベートエンティティの検索を行うHaSフレームワークを紹介する。
本研究では,HaSのプライバシー保護性能を定量的に評価するために,ブラックボックスモデルとホワイトボックスモデルの両方を提案する。
論文 参考訳(メタデータ) (2023-09-06T14:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。