論文の概要: One size does not fit all: Investigating strategies for
differentially-private learning across NLP tasks
- arxiv url: http://arxiv.org/abs/2112.08159v1
- Date: Wed, 15 Dec 2021 14:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 16:19:17.458236
- Title: One size does not fit all: Investigating strategies for
differentially-private learning across NLP tasks
- Title(参考訳): 1つのサイズがすべてに合わない:NLPタスク間の差分私的学習のための戦略の検討
- Authors: Manuel Senge, Timour Igamberdiev, Ivan Habernal
- Abstract要約: 現代のNLPモデルのトレーニングにおけるプライバシの保護には、コストがかかる。
より厳密なプライバシ保証は、一般にモデル性能を低下させる差分偏極勾配勾配(DP-SGD)である。
NLPタスクを解く標準的な非私的アプローチとは違い,プライバシ保護戦略は勝利のパターンを示さない。
- 参考スコア(独自算出の注目度): 3.0052889675473726
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Preserving privacy in training modern NLP models comes at a cost. We know
that stricter privacy guarantees in differentially-private stochastic gradient
descent (DP-SGD) generally degrade model performance. However, previous
research on the efficiency of DP-SGD in NLP is inconclusive or even
counter-intuitive. In this short paper, we provide a thorough analysis of
different privacy preserving strategies on seven downstream datasets in five
different `typical' NLP tasks with varying complexity using modern neural
models. We show that unlike standard non-private approaches to solving NLP
tasks, where bigger is usually better, privacy-preserving strategies do not
exhibit a winning pattern, and each task and privacy regime requires a special
treatment to achieve adequate performance.
- Abstract(参考訳): 現代のNLPモデルのトレーニングにおけるプライバシの保護には、コストがかかる。
微分プライベート確率勾配降下 (dp-sgd) において、より厳格なプライバシー保証は一般的にモデル性能を低下させる。
しかし、NLPにおけるDP-SGDの効率に関する以前の研究は、決定的あるいは反直観的である。
本稿では,5つの異なるnlpタスクにおける7つのダウンストリームデータセットの異なるプライバシ保存戦略について,現代的なニューラルモデルを用いて徹底的に分析する。
従来のNLPタスクの解決方法とは異なり、プライバシ保護戦略は勝利パターンを示しておらず、各タスクとプライバシ体制は適切なパフォーマンスを達成するために特別な処理を必要とする。
関連論文リスト
- Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Large Language Models Can Be Strong Differentially Private Learners [70.0317718115406]
Differentially Private(DP)学習は、テキストの大規模なディープラーニングモデルを構築する上で、限られた成功を収めている。
この性能低下は,大規模な事前学習モデルを用いることで緩和可能であることを示す。
本稿では,DP-SGDにおけるクリッピングを,サンプルごとの勾配をインスタンス化せずに実行可能にするメモリ節約手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:45:27Z) - DPlis: Boosting Utility of Differentially Private Deep Learning via
Randomized Smoothing [0.0]
DPlis--Differentially Private Learning wIth Smoothingを提案します。
DPlisは,プライバシ予算の下でモデル品質とトレーニングの安定性を効果的に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-02T06:33:14Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。