論文の概要: 1-Diffractor: Efficient and Utility-Preserving Text Obfuscation Leveraging Word-Level Metric Differential Privacy
- arxiv url: http://arxiv.org/abs/2405.01678v1
- Date: Thu, 2 May 2024 19:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 14:44:38.557586
- Title: 1-Diffractor: Efficient and Utility-Preserving Text Obfuscation Leveraging Word-Level Metric Differential Privacy
- Title(参考訳): 1-Diffractor:Word-Level Metric Differential Privacyを活用したテキスト難読化の効率と実用性
- Authors: Stephen Meisenbacher, Maulik Chevli, Florian Matthes,
- Abstract要約: $texttt1-Diffractor$は、以前のメカニズムと比較して高速な処理を行う新しいメカニズムである。
我々は、いくつかのNLPタスクのユーティリティ、理論的およびタスクベースのプライバシ、スピードとメモリの効率性について、$texttt1-Diffractor$を評価した。
- 参考スコア(独自算出の注目度): 3.0177210416625124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The study of privacy-preserving Natural Language Processing (NLP) has gained rising attention in recent years. One promising avenue studies the integration of Differential Privacy in NLP, which has brought about innovative methods in a variety of application settings. Of particular note are $\textit{word-level Metric Local Differential Privacy (MLDP)}$ mechanisms, which work to obfuscate potentially sensitive input text by performing word-by-word $\textit{perturbations}$. Although these methods have shown promising results in empirical tests, there are two major drawbacks: (1) the inevitable loss of utility due to addition of noise, and (2) the computational expensiveness of running these mechanisms on high-dimensional word embeddings. In this work, we aim to address these challenges by proposing $\texttt{1-Diffractor}$, a new mechanism that boasts high speedups in comparison to previous mechanisms, while still demonstrating strong utility- and privacy-preserving capabilities. We evaluate $\texttt{1-Diffractor}$ for utility on several NLP tasks, for theoretical and task-based privacy, and for efficiency in terms of speed and memory. $\texttt{1-Diffractor}$ shows significant improvements in efficiency, while still maintaining competitive utility and privacy scores across all conducted comparative tests against previous MLDP mechanisms. Our code is made available at: https://github.com/sjmeis/Diffractor.
- Abstract(参考訳): 近年,プライバシ保護自然言語処理(NLP)の研究が注目されている。
有望な方法の1つは、さまざまなアプリケーション設定において革新的な方法をもたらした、NLPにおける差分プライバシーの統合について研究している。
特に注目すべきは、$\textit{word-level Metric Local Differential Privacy (MLDP)$ mechanismである。
これらの手法は実証実験で有望な結果を示したが,(1)ノイズの付加による実用性低下の回避,(2)高次元単語埋め込みにおけるこれらのメカニズムの実行の計算コストの増大,の2つの大きな欠点がある。
本研究では,従来のメカニズムと比較して高速な高速化を実現する新しいメカニズムである$\texttt{1-Diffractor}$を提案しながら,強力なユーティリティとプライバシ保護機能を示すことで,これらの課題に対処することを目指している。
我々は、いくつかのNLPタスク、理論的およびタスクベースのプライバシ、スピードとメモリの面での効率のために、$\texttt{1-Diffractor}$を評価した。
$\texttt{1-Diffractor}$は、これまでのMLDPメカニズムと比較したすべてのテストにおいて、競争力のあるユーティリティとプライバシのスコアを維持しながら、効率が大幅に向上したことを示している。
私たちのコードは、https://github.com/sjmeis/Diffractor.comで利用可能です。
関連論文リスト
- A Collocation-based Method for Addressing Challenges in Word-level Metric Differential Privacy [3.0177210416625124]
ワードレベルの$textitMetric$ Differential Privacyアプローチが提案されている。
構成された民営化出力のセマンティックコヒーレンスと可変長を向上する手法を考案する。
本手法を実用性とプライバシテストで評価することにより,単語レベルを超えてトークン化戦略を明確にする。
論文 参考訳(メタデータ) (2024-06-30T09:37:34Z) - Perturb-and-Project: Differentially Private Similarities and Marginals [73.98880839337873]
差分プライバシーのための入力摂動フレームワークを再検討し、入力にノイズを付加する。
まず、ペアワイズ・コサイン類似性をプライベートにリリースするための新しい効率的なアルゴリズムを設計する。
我々は,$k$の辺縁クエリを$n$の機能に対して計算する新しいアルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-06-07T12:07:16Z) - A Comparative Analysis of Word-Level Metric Differential Privacy: Benchmarking The Privacy-Utility Trade-off [45.07650884598811]
単語レベルの差分プライバシーを達成するための7つの異なるアルゴリズムを比較した。
プライバシーとユーティリティのトレードオフに焦点をあてて、結果の詳細な分析を行う。
我々は研究分野に向けて具体的な一歩を踏み出すことを提案する。
論文 参考訳(メタデータ) (2024-04-04T09:48:14Z) - Faster Privacy Accounting via Evolving Discretization [54.32252900997422]
プライバシランダム変数の数値合成のための新しいアルゴリズムを提案する。
本アルゴリズムは,メカニズムを自己コンパイルするタスクに対して,$mathrmpolylog(k)$の実行時間とメモリ使用量を達成する。
論文 参考訳(メタデータ) (2022-07-10T04:25:37Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Certifiably Robust Interpretation via Renyi Differential Privacy [77.04377192920741]
我々はRenyi差分プライバシー(RDP)の新しい視点から解釈堅牢性の問題を研究する。
まず、証明可能で証明可能なトップ$k$ロバスト性を提供する。
第二に、提案手法は既存の手法よりも実験的堅牢性を$sim10%$で提供する。
第3に,ロバスト性と計算効率のトレードオフを円滑に行うことができる。
論文 参考訳(メタデータ) (2021-07-04T06:58:01Z) - Oneshot Differentially Private Top-k Selection [23.88111547236874]
我々は、トップ$k$問題の高速、低歪み、および微分プライベートプリミティブを紹介します。
文献の既存手法と比較して、我々のアルゴリズムはカウントにLaplaceノイズを加え、上位の$k$ノイズ数とその推定値を一括してリリースする。
論文 参考訳(メタデータ) (2021-05-18T02:18:01Z) - On a Utilitarian Approach to Privacy Preserving Text Generation [5.123298347655088]
本研究では, 従来機構の近傍選択基準をパラメータ化する微分的プライベート機構のクラスを提案する。
Vickreyオークションは、第2位の価格のみを公表し、最も高い価格を非公開にしておくことで、第1位と第2位の隣人の選択のバランスをとる。
実際のテキスト分類データセットの実験では、同じ実証的なプライバシー保証を持つ既存の最先端技術と比較して、ユーティリティが最大50%改善されている。
論文 参考訳(メタデータ) (2021-04-23T23:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。