論文の概要: Research Challenges in Designing Differentially Private Text Generation
Mechanisms
- arxiv url: http://arxiv.org/abs/2012.05403v1
- Date: Thu, 10 Dec 2020 01:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 00:10:26.109131
- Title: Research Challenges in Designing Differentially Private Text Generation
Mechanisms
- Title(参考訳): 個人差分テキスト生成機構の設計における研究課題
- Authors: Oluwaseyi Feyisetan, Abhinav Aggarwal, Zekun Xu, Nathanael Teissier
- Abstract要約: 我々は、異なるプライベートテキストメカニズムのプライバシーとユーティリティのトレードオフのバランスにおけるいくつかの課題について説明します。
私たちの目標は、単一のソリューションを評価するのではなく、これらの課題とより良いメカニズムを構築するためのチャートパスに関する会話をさらに進めることです。
- 参考スコア(独自算出の注目度): 5.123298347655088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately learning from user data while ensuring quantifiable privacy
guarantees provides an opportunity to build better Machine Learning (ML) models
while maintaining user trust. Recent literature has demonstrated the
applicability of a generalized form of Differential Privacy to provide
guarantees over text queries. Such mechanisms add privacy preserving noise to
vectorial representations of text in high dimension and return a text based
projection of the noisy vectors. However, these mechanisms are sub-optimal in
their trade-off between privacy and utility. This is due to factors such as a
fixed global sensitivity which leads to too much noise added in dense spaces
while simultaneously guaranteeing protection for sensitive outliers. In this
proposal paper, we describe some challenges in balancing the tradeoff between
privacy and utility for these differentially private text mechanisms. At a high
level, we provide two proposals: (1) a framework called LAC which defers some
of the noise to a privacy amplification step and (2), an additional suite of
three different techniques for calibrating the noise based on the local region
around a word. Our objective in this paper is not to evaluate a single solution
but to further the conversation on these challenges and chart pathways for
building better mechanisms.
- Abstract(参考訳): ユーザのデータから正確に学習し、定量化されたプライバシ保証を確保しながら、ユーザの信頼を維持しながら、よりよい機械学習(ML)モデルを構築する機会を提供する。
近年の文献は、テキストクエリの保証を提供するために、一般化された微分プライバシーの適用性を示している。
このようなメカニズムは、高次元のテキストのベクトル表現にプライバシー保護ノイズを加え、ノイズの多いベクトルのテキストベースの投影を返す。
しかし、これらのメカニズムはプライバシとユーティリティのトレードオフにおいて最適ではない。
これは、固定された大域感度などの要因により、高密度空間に過剰なノイズが付加され、同時にセンシティブな外れ値に対する保護が保証される。
本稿では,これらの差分的プライベートテキスト機構におけるプライバシとユーティリティのトレードオフのバランスをとる上での課題について述べる。
高レベルでは、(1)プライバシーの増幅ステップにノイズの一部を否定するlacと呼ばれるフレームワークと、(2)単語周辺の局所領域に基づいてノイズを校正するための3つの異なるテクニックのスイートという2つの提案がある。
この論文の目標は,単一ソリューションの評価ではなく,これらの課題とより優れたメカニズムを構築するためのチャートパスに関する議論をさらに進めることである。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [50.10075455235939]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Differential Privacy via Distributionally Robust Optimization [6.080354168357744]
非漸近的かつ無条件の最適性を保証するメカニズムのクラスを開発する。
上界 (primal) は実装可能な摂動に対応しており、その準最適性は下界 (dual) で有界である。
数値実験により、我々の摂動は、人工的および標準ベンチマーク問題に関する文献から得られた最も優れた結果よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-04-25T09:31:47Z) - On Differentially Private Federated Linear Contextual Bandits [9.51828574518325]
我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
現状の3つの課題は, (i) 主張されたプライバシ保護の失敗, (ii) ノイズの計算ミスによる不正確な後悔,である。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-02-27T16:47:49Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - The Limits of Word Level Differential Privacy [30.34805746574316]
そこで本稿では, パラフレージング用に微調整されたトランスフォーマーベース言語モデルに基づくテキスト匿名化手法を提案する。
提案手法を徹底的な実験により評価し,提案手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-02T21:53:10Z) - Semantics-Preserved Distortion for Personal Privacy Protection [48.69930912510414]
クライアントデバイスでは、ユーザによって毎日、個人情報を含む大量のテキストが生成される。
フェデレートラーニング(Federated Learning)では、クライアントデバイスの生の情報から中心モデルをブロックする多くの方法が提案されている。
本稿では,意味を保ちながらテキストを歪ませることで,より言語的にこれを行おうとする。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - On a Utilitarian Approach to Privacy Preserving Text Generation [5.123298347655088]
本研究では, 従来機構の近傍選択基準をパラメータ化する微分的プライベート機構のクラスを提案する。
Vickreyオークションは、第2位の価格のみを公表し、最も高い価格を非公開にしておくことで、第1位と第2位の隣人の選択のバランスをとる。
実際のテキスト分類データセットの実験では、同じ実証的なプライバシー保証を持つ既存の最先端技術と比較して、ユーティリティが最大50%改善されている。
論文 参考訳(メタデータ) (2021-04-23T23:13:43Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。