論文の概要: Spend Your Budget Wisely: Towards an Intelligent Distribution of the Privacy Budget in Differentially Private Text Rewriting
- arxiv url: http://arxiv.org/abs/2503.22379v1
- Date: Fri, 28 Mar 2025 12:33:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:31:54.231326
- Title: Spend Your Budget Wisely: Towards an Intelligent Distribution of the Privacy Budget in Differentially Private Text Rewriting
- Title(参考訳): 個人用テキストの書き直しにおけるプライバシー予算のインテリジェント分布を目指して
- Authors: Stephen Meisenbacher, Chaeeun Joy Lee, Florian Matthes,
- Abstract要約: テキスト文書中のトークンの構成にプライバシー予算を割り当てるのに使用される言語学およびNLPに基づく手法のツールキットを構築し,評価する。
我々の研究は、DPによるテキストの民営化の複雑さを強調し、さらに、DPによるテキストの書き直しにおける民営化のメリットを最大化するための、より効率的な方法を見つけることを求めている。
- 参考スコア(独自算出の注目度): 3.0177210416625124
- License:
- Abstract: The task of $\textit{Differentially Private Text Rewriting}$ is a class of text privatization techniques in which (sensitive) input textual documents are $\textit{rewritten}$ under Differential Privacy (DP) guarantees. The motivation behind such methods is to hide both explicit and implicit identifiers that could be contained in text, while still retaining the semantic meaning of the original text, thus preserving utility. Recent years have seen an uptick in research output in this field, offering a diverse array of word-, sentence-, and document-level DP rewriting methods. Common to these methods is the selection of a privacy budget (i.e., the $\varepsilon$ parameter), which governs the degree to which a text is privatized. One major limitation of previous works, stemming directly from the unique structure of language itself, is the lack of consideration of $\textit{where}$ the privacy budget should be allocated, as not all aspects of language, and therefore text, are equally sensitive or personal. In this work, we are the first to address this shortcoming, asking the question of how a given privacy budget can be intelligently and sensibly distributed amongst a target document. We construct and evaluate a toolkit of linguistics- and NLP-based methods used to allocate a privacy budget to constituent tokens in a text document. In a series of privacy and utility experiments, we empirically demonstrate that given the same privacy budget, intelligent distribution leads to higher privacy levels and more positive trade-offs than a naive distribution of $\varepsilon$. Our work highlights the intricacies of text privatization with DP, and furthermore, it calls for further work on finding more efficient ways to maximize the privatization benefits offered by DP in text rewriting.
- Abstract(参考訳): $\textit{Differentially Private Text Rewriting}$のタスクは、(機密性の高い)入力テキストドキュメントが、差分プライバシー(DP)の下で保証される$\textit{rewriting}$のテキストプライベート化テクニックのクラスである。
このような方法の背後にある動機は、テキストに含まれる可能性のある明示的な識別子と暗黙的な識別子の両方を隠すことである。
近年、この分野での研究成果が増加し、多種多様な単語、文、文書レベルのDP書き換え方法が提供されている。
これらの方法に共通するのは、プライバシ予算(すなわち$\varepsilon$パラメータ)の選択である。
以前の作品の1つの大きな制限は、言語自体のユニークな構造から直接生じるものであり、$\textit{where}$ プライバシー予算は言語の全側面ではなく、したがってテキストは同様にセンシティブで個人的なものであるべきだという考慮の欠如である。
この作業では、我々はこの欠点に最初に対処し、特定のプライバシー予算がターゲット文書にどのように知的かつ賢明に分散できるかという疑問に答える。
テキスト文書中のトークンの構成にプライバシー予算を割り当てるのに使用される言語学およびNLPに基づく手法のツールキットを構築し,評価する。
一連のプライバシーとユーティリティの実験において、我々は、同じプライバシー予算を前提として、インテリジェントな配布がプライバシーレベルを高くし、よりポジティブなトレードオフをもたらすことを実証的に実証した。
我々の研究は、DPによるテキストの民営化の複雑さを強調し、さらに、DPによるテキストの書き直しにおける民営化のメリットを最大化するための、より効率的な方法を見つけることを求めている。
関連論文リスト
- On the Impact of Noise in Differentially Private Text Rewriting [3.0177210416625124]
そこで本稿では,DPテキストの書き直しにおけるノイズの影響を探索するために,新たな文埋込民営化手法を提案する。
実用性保護において非DP民営化技術が優れていることを実証的に示すとともに,実証的プライバシ保護においてDP手法を上回りつつも,許容可能な実証的プライバシユーティリティトレードオフを見出すことができることを示す。
論文 参考訳(メタデータ) (2025-01-31T10:45:24Z) - Optimized Tradeoffs for Private Prediction with Majority Ensembling [59.99331405291337]
本稿では,データ依存型ランダム化応答行列(DaRRM)アルゴリズムを提案する。
DaRRMはデータ依存ノイズ関数$gamma$でパラメータ化され、全てのプライベートアルゴリズムのクラスに対して効率的なユーティリティ最適化を可能にする。
本稿では,DARRMが共通ベースラインよりも2倍のプライバシゲインを,固定ユーティリティで確実に享受していることを示す。
論文 参考訳(メタデータ) (2024-11-27T00:48:48Z) - A Collocation-based Method for Addressing Challenges in Word-level Metric Differential Privacy [3.0177210416625124]
ワードレベルの$textitMetric$ Differential Privacyアプローチが提案されている。
構成された民営化出力のセマンティックコヒーレンスと可変長を向上する手法を考案する。
本手法を実用性とプライバシテストで評価することにより,単語レベルを超えてトークン化戦略を明確にする。
論文 参考訳(メタデータ) (2024-06-30T09:37:34Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [55.20137833039499]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Just Rewrite It Again: A Post-Processing Method for Enhanced Semantic Similarity and Privacy Preservation of Differentially Private Rewritten Text [3.3916160303055567]
本稿では,書き直したテキストを元のテキストと整合させることを目標とした,簡単な後処理手法を提案する。
以上の結果から,このような手法は,従来の入力よりも意味論的に類似した出力を生成するだけでなく,経験的プライバシ評価において平均的なスコアがよいテキストを生成することが示唆された。
論文 参考訳(メタデータ) (2024-05-30T08:41:33Z) - DP-BART for Privatized Text Rewriting under Local Differential Privacy [2.45626162429986]
本稿では,既存の LDP システムに大きく勝る新システム "DP-BART" を提案する。
提案手法では,新たなクリッピング手法,反復的プルーニング,およびDP保証に必要なノイズを劇的に低減する内部表現の訓練を用いる。
論文 参考訳(メタデータ) (2023-02-15T13:07:34Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Sentence-level Privacy for Document Embeddings [25.779351166096255]
単一ユーザ文書の文レベルでの純粋ローカル差分プライバシーであるSentDPを提案する。
実験の結果,これらの文書の埋め込みは感情分析やトピック分類といった下流作業に有用であることが示唆された。
論文 参考訳(メタデータ) (2022-05-10T00:19:35Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。