論文の概要: DP-GTR: Differentially Private Prompt Protection via Group Text Rewriting
- arxiv url: http://arxiv.org/abs/2503.04990v1
- Date: Thu, 06 Mar 2025 21:39:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:22:30.397618
- Title: DP-GTR: Differentially Private Prompt Protection via Group Text Rewriting
- Title(参考訳): DP-GTR:グループテキスト書き換えによる個人プロンプト保護
- Authors: Mingchen Li, Heng Fan, Song Fu, Junhua Ding, Yunhe Feng,
- Abstract要約: DP-GTRは、局所微分プライバシー(DP)とグループテキスト書き換えによる合成定理を利用する新しい3段階フレームワークである。
CommonSense QAとDocVQAの実験は、DP-GTRが既存のアプローチより優れていることを示した。
われわれのフレームワークは既存の書き換え技術と互換性があり、プライバシー保護を強化するためのプラグインとして機能している。
- 参考スコア(独自算出の注目度): 16.861151219321737
- License:
- Abstract: Prompt privacy is crucial, especially when using online large language models (LLMs), due to the sensitive information often contained within prompts. While LLMs can enhance prompt privacy through text rewriting, existing methods primarily focus on document-level rewriting, neglecting the rich, multi-granular representations of text. This limitation restricts LLM utilization to specific tasks, overlooking their generalization and in-context learning capabilities, thus hindering practical application. To address this gap, we introduce DP-GTR, a novel three-stage framework that leverages local differential privacy (DP) and the composition theorem via group text rewriting. DP-GTR is the first framework to integrate both document-level and word-level information while exploiting in-context learning to simultaneously improve privacy and utility, effectively bridging local and global DP mechanisms at the individual data point level. Experiments on CommonSense QA and DocVQA demonstrate that DP-GTR outperforms existing approaches, achieving a superior privacy-utility trade-off. Furthermore, our framework is compatible with existing rewriting techniques, serving as a plug-in to enhance privacy protection. Our code is publicly available at https://github.com/FatShion-FTD/DP-GTR for reproducibility.
- Abstract(参考訳): プロンプトのプライバシーは、特にオンラインの大規模言語モデル(LLM)を使用する場合、しばしばプロンプトに含まれるセンシティブな情報のために重要である。
LLMはテキストの書き直しによって迅速なプライバシを高めることができるが、既存の手法は主に文書レベルの書き直しに重点を置いており、リッチで多彩なテキスト表現を無視している。
この制限は、LLMの利用を特定のタスクに制限し、その一般化とコンテキスト内学習能力を見落とし、実用的な応用を妨げる。
このギャップに対処するために,DP-GTRという,局所微分プライバシー(DP)とグループテキストの書き換えによる合成定理を利用する新しい3段階フレームワークを導入する。
DP-GTRは、文書レベルと単語レベルの両方を統合する最初のフレームワークであり、コンテキスト内学習を利用して、プライバシーとユーティリティを同時に改善し、個々のデータポイントレベルでローカルおよびグローバルDPメカニズムを効果的にブリッジする。
CommonSense QAとDocVQAの実験では、DP-GTRは既存のアプローチよりも優れており、優れたプライバシーユーティリティトレードオフを実現している。
さらに、当社のフレームワークは既存の書き換え技術と互換性があり、プライバシ保護を強化するためのプラグインとして機能する。
我々のコードは再現性のためにhttps://github.com/FatShion-FTD/DP-GTRで公開されている。
関連論文リスト
- Thinking Outside of the Differential Privacy Box: A Case Study in Text Privatization with Language Model Prompting [3.3916160303055567]
我々は、差別化プライバシ(DP)統合が課す制約について議論するとともに、そのような制限がもたらす課題を明らかにします。
以上の結果から,NLPにおけるDPのユーザビリティと非DPアプローチに対するメリットについて,さらなる議論の必要性が示唆された。
論文 参考訳(メタデータ) (2024-10-01T14:46:15Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Differentially Private Synthetic Data via Foundation Model APIs 2: Text [56.13240830670327]
現実世界で生成された高品質なテキストデータはプライベートであり、プライバシー上の懸念から自由に共有したり、利用したりすることはできない。
テキストの複雑な設定に適用可能な拡張PEアルゴリズムであるAug-PEを提案する。
その結果, Aug-PE は SOTA DP の微調整ベースラインと競合する DP 合成テキストを生成することがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:57:50Z) - ConfusionPrompt: Practical Private Inference for Online Large Language Models [3.8134804426693094]
最先端の大規模言語モデル(LLM)は一般的にオンラインサービスとしてデプロイされ、ユーザーはクラウドサーバーに詳細なプロンプトを送信する必要がある。
我々は,従来のプロンプトを小さなサブプロンプトに分解することで,ユーザのプライバシを保護する,プライベートLLM推論のための新しいフレームワークであるConfusionPromptを紹介する。
コンフュージョンプロンプトは,オープンソースモデルと摂動に基づく手法を用いて,局所的推論手法よりもはるかに高い実用性を実現することを示す。
論文 参考訳(メタデータ) (2023-12-30T01:26:42Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - DP-BART for Privatized Text Rewriting under Local Differential Privacy [2.45626162429986]
本稿では,既存の LDP システムに大きく勝る新システム "DP-BART" を提案する。
提案手法では,新たなクリッピング手法,反復的プルーニング,およびDP保証に必要なノイズを劇的に低減する内部表現の訓練を用いる。
論文 参考訳(メタデータ) (2023-02-15T13:07:34Z) - DP-Rewrite: Towards Reproducibility and Transparency in Differentially
Private Text Rewriting [2.465904360857451]
本稿では,DP-Rewriteについて紹介する。
システムには、さまざまなダウンストリームデータセット、モデル、事前学習手順、評価指標が組み込まれています。
本稿では,ADePT DPテキスト書き換えシステムの事例研究として,事前学習アプローチにおけるプライバシー漏洩を検出する実験について述べる。
論文 参考訳(メタデータ) (2022-08-22T15:38:16Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。