論文の概要: How reparametrization trick broke differentially-private text
representation leaning
- arxiv url: http://arxiv.org/abs/2202.12138v1
- Date: Thu, 24 Feb 2022 15:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 22:04:27.715824
- Title: How reparametrization trick broke differentially-private text
representation leaning
- Title(参考訳): リパラメトリゼーションのトリックが微分プライベートテキスト表現の傾きを破る方法
- Authors: Ivan Habernal
- Abstract要約: 差分プライバシーは、NLPにおけるプライバシ保護手法に対するお気に入りのアプローチの1つである。
その単純さにもかかわらず、NLPに適用するときに正しく行うのは簡単ではないように思える。
私たちの主な目標は、認識を高め、コミュニティがテキスト表現学習に差分プライバシーを適用する際の潜在的な落とし穴を理解するのを支援することです。
- 参考スコア(独自算出の注目度): 2.45626162429986
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As privacy gains traction in the NLP community, researchers have started
adopting various approaches to privacy-preserving methods. One of the favorite
privacy frameworks, differential privacy (DP), is perhaps the most compelling
thanks to its fundamental theoretical guarantees. Despite the apparent
simplicity of the general concept of differential privacy, it seems non-trivial
to get it right when applying it to NLP. In this short paper, we formally
analyze several recent NLP papers proposing text representation learning using
DPText (Beigi et al., 2019a,b; Alnasser et al., 2021; Beigi et al., 2021) and
reveal their false claims of being differentially private. Furthermore, we also
show a simple yet general empirical sanity check to determine whether a given
implementation of a DP mechanism almost certainly violates the privacy loss
guarantees. Our main goal is to raise awareness and help the community
understand potential pitfalls of applying differential privacy to text
representation learning.
- Abstract(参考訳): NLPコミュニティのプライバシ向上に伴い、研究者はプライバシ保護手法にさまざまなアプローチを採用し始めている。
お気に入りのプライバシーフレームワークの1つ、差分プライバシー(DP)は、基本的な理論的保証のおかげでおそらく最も説得力がある。
差分プライバシーという一般的な概念の明らかな単純さにもかかわらず、NLPに適用する際、それを正しく行うのは簡単ではないように思える。
本稿では,dptext (beigi et al., 2019a,b, alnasser et al., 2021; beigi et al., 2021) を用いたテキスト表現学習を提案する最近のnlp論文を形式的に分析し,差分プライベートであるという虚偽の主張を明らかにする。
さらに、DP機構の実装がプライバシーの損失保証にほぼ確実に違反するかどうかを判定するために、単純な実証的な正当性チェックを示す。
私たちの主な目標は、意識を高め、テキスト表現学習に差分プライバシーを適用することの潜在的な落とし穴をコミュニティが理解できるようにすることです。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Thinking Outside of the Differential Privacy Box: A Case Study in Text Privatization with Language Model Prompting [3.3916160303055567]
我々は、差別化プライバシ(DP)統合が課す制約について議論するとともに、そのような制限がもたらす課題を明らかにします。
以上の結果から,NLPにおけるDPのユーザビリティと非DPアプローチに対するメリットについて,さらなる議論の必要性が示唆された。
論文 参考訳(メタデータ) (2024-10-01T14:46:15Z) - A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - DP-BART for Privatized Text Rewriting under Local Differential Privacy [2.45626162429986]
本稿では,既存の LDP システムに大きく勝る新システム "DP-BART" を提案する。
提案手法では,新たなクリッピング手法,反復的プルーニング,およびDP保証に必要なノイズを劇的に低減する内部表現の訓練を用いる。
論文 参考訳(メタデータ) (2023-02-15T13:07:34Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Differential Privacy: What is all the noise about? [0.0]
差別化プライバシ(DP)は、データ処理中のプライバシー侵害のリスクに対して厳格な保証を提供する、正式なプライバシ定義である。
本稿では,機械学習(ML)におけるDPの最も重要な概念,概念,利用について概観する。
論文 参考訳(メタデータ) (2022-05-19T10:12:29Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - When differential privacy meets NLP: The devil is in the detail [3.5503507997334958]
テキストの書き直しのための微分プライベート自動エンコーダであるADePTの形式解析を行う。
以上の結果から,ADePTは差分プライベートではないことが判明した。
論文 参考訳(メタデータ) (2021-09-07T16:12:25Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。