論文の概要: Selective Differential Privacy for Language Modeling
- arxiv url: http://arxiv.org/abs/2108.12944v1
- Date: Mon, 30 Aug 2021 01:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:33:35.382628
- Title: Selective Differential Privacy for Language Modeling
- Title(参考訳): 言語モデリングのための選択的微分プライバシー
- Authors: Weiyan Shi, Aiqi Cui, Evan Li, Ruoxi Jia, Zhou Yu
- Abstract要約: これまでの研究は、RNNベースの言語モデルを異なるプライバシ保証でトレーニングすることで、この問題に対処しようとしてきた。
我々は、データの機密部分に対して厳密なプライバシー保証を提供するために、新しいプライバシー概念、選択的差分プライバシーを提案する。
言語モデリングとダイアログシステム構築の実験は、提案したプライバシー保護機構がより良いユーティリティを実現することを示す。
- 参考スコア(独自算出の注目度): 36.64464956102432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing adoption of language models in applications involving
sensitive data, it has become crucial to protect these models from leaking
private information. Previous work has attempted to tackle this challenge by
training RNN-based language models with differential privacy guarantees.
However, applying classical differential privacy to language models leads to
poor model performance as the underlying privacy notion is over-pessimistic and
provides undifferentiated protection for all tokens of the data. Given that the
private information in natural language is sparse (for example, the bulk of an
email might not carry personally identifiable information), we propose a new
privacy notion, selective differential privacy, to provide rigorous privacy
guarantees on the sensitive portion of the data to improve model utility. To
realize such a new notion, we develop a corresponding privacy mechanism,
Selective-DPSGD, for RNN-based language models. Besides language modeling, we
also apply the method to a more concrete application -- dialog systems.
Experiments on both language modeling and dialog system building show that the
proposed privacy-preserving mechanism achieves better utilities while remaining
safe under various privacy attacks compared to the baselines. The data, code
and models are available at https://github.com/wyshi/lm_privacy.
- Abstract(参考訳): 機密データを含むアプリケーションにおける言語モデルの採用の増加に伴い、これらのモデルがプライベート情報を漏洩することを防ぐことが重要になっている。
これまでの研究は、RNNベースの言語モデルを差分プライバシー保証でトレーニングすることで、この問題に対処しようとしてきた。
しかし、言語モデルに古典的な微分プライバシーを適用すると、基礎となるプライバシー概念は悲観的であり、データのすべてのトークンに対する非微分保護を提供するため、モデルパフォーマンスが低下する。
自然言語のプライベート情報が不足していること(例えば、電子メールの大部分が個人識別可能な情報を持っていないこと)を踏まえ、我々は、モデルユーティリティを改善するために、データの機密部分に対する厳密なプライバシー保証を提供するために、新しいプライバシー概念、選択的差分プライバシーを提案する。
このような新しい概念を実現するために、RNNベースの言語モデルに対して、対応するプライバシメカニズムであるSelective-DPSGDを開発する。
言語モデリング以外にも、より具体的なアプリケーション -- ダイアログシステムにもこのメソッドを適用します。
言語モデリングとダイアログシステム構築の両方の実験により、提案するプライバシ保存メカニズムが、さまざまなプライバシ攻撃に対して安全でありながら、より良いユーティリティを実現することが示された。
データ、コード、モデルはhttps://github.com/wyshi/lm_privacyで入手できる。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Privacy-Adaptive BERT for Natural Language Understanding [20.821155542969947]
BERTを用いたローカルプライバシ設定下でのNLUモデルの有効性向上について検討する。
本稿では,プライバシ対応lmプリトレーニング手法を提案し,民営化テキスト入力におけるモデル性能を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2021-04-15T15:01:28Z) - Differentially Private Language Models Benefit from Public Pre-training [1.2676356746752895]
品質とプライバシーの保護を同時に行う言語モデル学習の実現可能性について検討する。
DPの微調整により,プライベートドメインにおける言語モデルの性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-09-13T00:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。