論文の概要: Differentially Private Representation for NLP: Formal Guarantee and An
Empirical Study on Privacy and Fairness
- arxiv url: http://arxiv.org/abs/2010.01285v1
- Date: Sat, 3 Oct 2020 05:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 09:03:05.645658
- Title: Differentially Private Representation for NLP: Formal Guarantee and An
Empirical Study on Privacy and Fairness
- Title(参考訳): NLPのための差分表現:形式的保証とプライバシと公正性に関する実証的研究
- Authors: Lingjuan Lyu, Xuanli He, Yitong Li
- Abstract要約: 深層モデルで学習した隠れ表現が、入力のプライベート情報を符号化できることが示されている。
テキストから抽出した表現のプライバシを保護するために,DPNR(differially Private Neural Representation)を提案する。
- 参考スコア(独自算出の注目度): 38.90014773292902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been demonstrated that hidden representation learned by a deep model
can encode private information of the input, hence can be exploited to recover
such information with reasonable accuracy. To address this issue, we propose a
novel approach called Differentially Private Neural Representation (DPNR) to
preserve the privacy of the extracted representation from text. DPNR utilises
Differential Privacy (DP) to provide a formal privacy guarantee. Further, we
show that masking words via dropout can further enhance privacy. To maintain
utility of the learned representation, we integrate DP-noisy representation
into a robust training process to derive a robust target model, which also
helps for model fairness over various demographic variables. Experimental
results on benchmark datasets under various parameter settings demonstrate that
DPNR largely reduces privacy leakage without significantly sacrificing the main
task performance.
- Abstract(参考訳): 深層モデルによって学習された隠れ表現は入力のプライベート情報をエンコードできるため、妥当な精度でそれらの情報を復元することができる。
そこで本研究では,テキストから抽出した表現のプライバシを保護するために,DPNR(differially Private Neural Representation)と呼ばれる新しい手法を提案する。
DPNRは、正式なプライバシー保証を提供するために差分プライバシー(DP)を利用している。
さらに、ドロップアウトで単語をマスキングすることで、プライバシーをさらに強化できることを示す。
学習表現の有用性を維持するために,dp-noisy表現をロバストなトレーニングプロセスに統合し,ロバストなターゲットモデルを導出する。
パラメータ設定によるベンチマークデータセットの実験結果から,DPNRはメインタスクのパフォーマンスを著しく損なうことなく,プライバシリークを大幅に低減することが示された。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Rethinking Improved Privacy-Utility Trade-off with Pre-existing Knowledge for DP Training [31.559864332056648]
異種雑音(DP-Hero)を有する一般微分プライバシーフレームワークを提案する。
DP-Hero上では、勾配更新に注入されたノイズが不均一であり、予め確立されたモデルパラメータによって誘導されるDP-SGDの異種バージョンをインスタンス化する。
提案するDP-Heroの有効性を検証・説明するための総合的な実験を行い,最新技術と比較するとトレーニング精度が向上した。
論文 参考訳(メタデータ) (2024-09-05T08:40:54Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Fair NLP Models with Differentially Private Text Encoders [1.7434507809930746]
差分プライバシと敵対的トレーニングのアイデアを組み合わせてプライベートテキスト表現を学習するアプローチであるFEDERATEを提案する。
4つのNLPデータセット上で、表現のプライバシと下流モデルの公平性と精度のトレードオフを実証的に評価する。
論文 参考訳(メタデータ) (2022-05-12T14:58:38Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。