論文の概要: On a Utilitarian Approach to Privacy Preserving Text Generation
- arxiv url: http://arxiv.org/abs/2104.11838v1
- Date: Fri, 23 Apr 2021 23:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:46:32.079577
- Title: On a Utilitarian Approach to Privacy Preserving Text Generation
- Title(参考訳): テキスト生成におけるプライバシ保護への実用的アプローチについて
- Authors: Zekun Xu, Abhinav Aggarwal, Oluwaseyi Feyisetan, Nathanael Teissier
- Abstract要約: 本研究では, 従来機構の近傍選択基準をパラメータ化する微分的プライベート機構のクラスを提案する。
Vickreyオークションは、第2位の価格のみを公表し、最も高い価格を非公開にしておくことで、第1位と第2位の隣人の選択のバランスをとる。
実際のテキスト分類データセットの実験では、同じ実証的なプライバシー保証を持つ既存の最先端技術と比較して、ユーティリティが最大50%改善されている。
- 参考スコア(独自算出の注目度): 5.123298347655088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially-private mechanisms for text generation typically add carefully
calibrated noise to input words and use the nearest neighbor to the noised
input as the output word. When the noise is small in magnitude, these
mechanisms are susceptible to reconstruction of the original sensitive text.
This is because the nearest neighbor to the noised input is likely to be the
original input. To mitigate this empirical privacy risk, we propose a novel
class of differentially private mechanisms that parameterizes the nearest
neighbor selection criterion in traditional mechanisms. Motivated by Vickrey
auction, where only the second highest price is revealed and the highest price
is kept private, we balance the choice between the first and the second nearest
neighbors in the proposed class of mechanisms using a tuning parameter. This
parameter is selected by empirically solving a constrained optimization problem
for maximizing utility, while maintaining the desired privacy guarantees. We
argue that this empirical measurement framework can be used to align different
mechanisms along a common benchmark for their privacy-utility tradeoff,
particularly when different distance metrics are used to calibrate the amount
of noise added. Our experiments on real text classification datasets show up to
50% improvement in utility compared to the existing state-of-the-art with the
same empirical privacy guarantee.
- Abstract(参考訳): テキスト生成のための差分プライベート機構は、通常、入力語に注意深く調整されたノイズを付加し、最も近い隣接語を出力語として使用する。
音の大きさが小さい場合、これらのメカニズムは元の敏感なテキストの再構成に影響を受けやすい。
これはノイズ入力に最も近いのが元の入力である可能性が高いためである。
この経験的プライバシリスクを緩和するために,従来のメカニズムにおける最寄りの近傍選択基準をパラメータ化する,微分プライベート機構の新たなクラスを提案する。
Vickreyオークションでは,最大価格のみを公表し,最高価格を非公開にしておくことで,チューニングパラメータを用いたメカニズムのクラスにおいて,第1と第2の隣人の選択のバランスをとる。
このパラメータは、所望のプライバシー保証を維持しつつ、ユーティリティを最大化するための制約付き最適化問題を経験的に解くことで選択される。
この経験的測定フレームワークは、プライバシ利用のトレードオフに対する共通のベンチマークに沿って、特に追加されるノイズの量を調整するために異なる距離メトリクスを使用する場合に、異なるメカニズムを調整するために使用することができる。
実テキスト分類データセットに関する我々の実験は、実証的なプライバシー保証を持つ既存の最先端技術と比較して、実用性は最大50%向上している。
関連論文リスト
- On the Privacy of Selection Mechanisms with Gaussian Noise [50.10075455235939]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - On User-Level Private Convex Optimization [59.75368670035683]
ユーザレベルの差分プライバシー保証を伴う凸最適化(SCO)のための新しいメカニズムを提案する。
我々のメカニズムは損失に対する滑らかさの仮定を必要としない。
私たちの限界は、ユーザレベルのプライバシーに必要な最小限のユーザが、その次元に依存しない、最初のものです。
論文 参考訳(メタデータ) (2023-05-08T17:47:28Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Optimal and Differentially Private Data Acquisition: Central and Local
Mechanisms [9.599356978682108]
プライバシに敏感なユーザからデータを収集するプラットフォームの問題を考え,その基盤となる関心パラメータを推定する。
ユーザに対して、プライバシ保証を提供するための2つの一般的な差分プライバシ設定について検討する。
このメカニズム設計問題は,ユーザのプライバシ感を真に報告するための推定器と支払器の最適選択として機能する。
論文 参考訳(メタデータ) (2022-01-10T00:27:43Z) - Oneshot Differentially Private Top-k Selection [23.88111547236874]
我々は、トップ$k$問題の高速、低歪み、および微分プライベートプリミティブを紹介します。
文献の既存手法と比較して、我々のアルゴリズムはカウントにLaplaceノイズを加え、上位の$k$ノイズ数とその推定値を一括してリリースする。
論文 参考訳(メタデータ) (2021-05-18T02:18:01Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Research Challenges in Designing Differentially Private Text Generation
Mechanisms [5.123298347655088]
我々は、異なるプライベートテキストメカニズムのプライバシーとユーティリティのトレードオフのバランスにおけるいくつかの課題について説明します。
私たちの目標は、単一のソリューションを評価するのではなく、これらの課題とより良いメカニズムを構築するためのチャートパスに関する会話をさらに進めることです。
論文 参考訳(メタデータ) (2020-12-10T01:44:50Z) - A Differentially Private Text Perturbation Method Using a Regularized
Mahalanobis Metric [8.679020335206753]
プライバシを保存するテキスト分析の一般的なアプローチはノイズ注入であり、まずテキストデータを連続的な埋め込み空間にマッピングする。
本稿では,この問題を解決するために,マハラノビス計量の正規化変種を慎重に設計したテキスト摂動機構を提案する。
我々はこの指標に基づいてテキスト摂動アルゴリズムを提供し、そのプライバシー保証を正式に証明する。
論文 参考訳(メタデータ) (2020-10-22T23:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。