論文の概要: On a Utilitarian Approach to Privacy Preserving Text Generation
- arxiv url: http://arxiv.org/abs/2104.11838v1
- Date: Fri, 23 Apr 2021 23:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:46:32.079577
- Title: On a Utilitarian Approach to Privacy Preserving Text Generation
- Title(参考訳): テキスト生成におけるプライバシ保護への実用的アプローチについて
- Authors: Zekun Xu, Abhinav Aggarwal, Oluwaseyi Feyisetan, Nathanael Teissier
- Abstract要約: 本研究では, 従来機構の近傍選択基準をパラメータ化する微分的プライベート機構のクラスを提案する。
Vickreyオークションは、第2位の価格のみを公表し、最も高い価格を非公開にしておくことで、第1位と第2位の隣人の選択のバランスをとる。
実際のテキスト分類データセットの実験では、同じ実証的なプライバシー保証を持つ既存の最先端技術と比較して、ユーティリティが最大50%改善されている。
- 参考スコア(独自算出の注目度): 5.123298347655088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially-private mechanisms for text generation typically add carefully
calibrated noise to input words and use the nearest neighbor to the noised
input as the output word. When the noise is small in magnitude, these
mechanisms are susceptible to reconstruction of the original sensitive text.
This is because the nearest neighbor to the noised input is likely to be the
original input. To mitigate this empirical privacy risk, we propose a novel
class of differentially private mechanisms that parameterizes the nearest
neighbor selection criterion in traditional mechanisms. Motivated by Vickrey
auction, where only the second highest price is revealed and the highest price
is kept private, we balance the choice between the first and the second nearest
neighbors in the proposed class of mechanisms using a tuning parameter. This
parameter is selected by empirically solving a constrained optimization problem
for maximizing utility, while maintaining the desired privacy guarantees. We
argue that this empirical measurement framework can be used to align different
mechanisms along a common benchmark for their privacy-utility tradeoff,
particularly when different distance metrics are used to calibrate the amount
of noise added. Our experiments on real text classification datasets show up to
50% improvement in utility compared to the existing state-of-the-art with the
same empirical privacy guarantee.
- Abstract(参考訳): テキスト生成のための差分プライベート機構は、通常、入力語に注意深く調整されたノイズを付加し、最も近い隣接語を出力語として使用する。
音の大きさが小さい場合、これらのメカニズムは元の敏感なテキストの再構成に影響を受けやすい。
これはノイズ入力に最も近いのが元の入力である可能性が高いためである。
この経験的プライバシリスクを緩和するために,従来のメカニズムにおける最寄りの近傍選択基準をパラメータ化する,微分プライベート機構の新たなクラスを提案する。
Vickreyオークションでは,最大価格のみを公表し,最高価格を非公開にしておくことで,チューニングパラメータを用いたメカニズムのクラスにおいて,第1と第2の隣人の選択のバランスをとる。
このパラメータは、所望のプライバシー保証を維持しつつ、ユーティリティを最大化するための制約付き最適化問題を経験的に解くことで選択される。
この経験的測定フレームワークは、プライバシ利用のトレードオフに対する共通のベンチマークに沿って、特に追加されるノイズの量を調整するために異なる距離メトリクスを使用する場合に、異なるメカニズムを調整するために使用することができる。
実テキスト分類データセットに関する我々の実験は、実証的なプライバシー保証を持つ既存の最先端技術と比較して、実用性は最大50%向上している。
関連論文リスト
- Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - On User-Level Private Convex Optimization [59.75368670035683]
ユーザレベルの差分プライバシー保証を伴う凸最適化(SCO)のための新しいメカニズムを提案する。
我々のメカニズムは損失に対する滑らかさの仮定を必要としない。
私たちの限界は、ユーザレベルのプライバシーに必要な最小限のユーザが、その次元に依存しない、最初のものです。
論文 参考訳(メタデータ) (2023-05-08T17:47:28Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Oneshot Differentially Private Top-k Selection [23.88111547236874]
我々は、トップ$k$問題の高速、低歪み、および微分プライベートプリミティブを紹介します。
文献の既存手法と比較して、我々のアルゴリズムはカウントにLaplaceノイズを加え、上位の$k$ノイズ数とその推定値を一括してリリースする。
論文 参考訳(メタデータ) (2021-05-18T02:18:01Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Research Challenges in Designing Differentially Private Text Generation
Mechanisms [5.123298347655088]
我々は、異なるプライベートテキストメカニズムのプライバシーとユーティリティのトレードオフのバランスにおけるいくつかの課題について説明します。
私たちの目標は、単一のソリューションを評価するのではなく、これらの課題とより良いメカニズムを構築するためのチャートパスに関する会話をさらに進めることです。
論文 参考訳(メタデータ) (2020-12-10T01:44:50Z) - A Differentially Private Text Perturbation Method Using a Regularized
Mahalanobis Metric [8.679020335206753]
プライバシを保存するテキスト分析の一般的なアプローチはノイズ注入であり、まずテキストデータを連続的な埋め込み空間にマッピングする。
本稿では,この問題を解決するために,マハラノビス計量の正規化変種を慎重に設計したテキスト摂動機構を提案する。
我々はこの指標に基づいてテキスト摂動アルゴリズムを提供し、そのプライバシー保証を正式に証明する。
論文 参考訳(メタデータ) (2020-10-22T23:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。