論文の概要: Model Explanations with Differential Privacy
- arxiv url: http://arxiv.org/abs/2006.09129v1
- Date: Tue, 16 Jun 2020 13:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 19:27:34.417003
- Title: Model Explanations with Differential Privacy
- Title(参考訳): ディファレンシャルプライバシを用いたモデル説明
- Authors: Neel Patel, Reza Shokri, Yair Zick
- Abstract要約: ブラックボックス機械学習モデルは重要な意思決定領域で使用される。
モデル説明は、トレーニングデータとそれらを生成するために使用される説明データに関する情報をリークすることができる。
特徴に基づくモデル記述を構築するために,差分プライベートなアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.15017895170093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box machine learning models are used in critical decision-making
domains, giving rise to several calls for more algorithmic transparency. The
drawback is that model explanations can leak information about the training
data and the explanation data used to generate them, thus undermining data
privacy. To address this issue, we propose differentially private algorithms to
construct feature-based model explanations. We design an adaptive
differentially private gradient descent algorithm, that finds the minimal
privacy budget required to produce accurate explanations. It reduces the
overall privacy loss on explanation data, by adaptively reusing past
differentially private explanations. It also amplifies the privacy guarantees
with respect to the training data. We evaluate the implications of
differentially private models and our privacy mechanisms on the quality of
model explanations.
- Abstract(参考訳): ブラックボックス機械学習モデルは重要な意思決定領域で使われており、よりアルゴリズム的な透明性を求める声が上がっている。
欠点は、モデル説明がトレーニングデータとそれらを生成するために使用される説明データに関する情報を漏洩させることで、データのプライバシーを損なうことだ。
この問題に対処するために,特徴に基づくモデル記述を構築するための差分プライベートアルゴリズムを提案する。
適応型差分勾配降下アルゴリズムを設計し, 正確な説明を行うために必要な最小限のプライバシー予算を求める。
過去の微分的プライベートな説明を適応的に再利用することで、説明データの全体的なプライバシー損失を低減する。
また、トレーニングデータに関してプライバシの保証を増幅する。
我々は、微分プライベートモデルとプライバシーメカニズムがモデル説明の質に与える影響を評価する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Differential Privacy Regularization: Protecting Training Data Through Loss Function Regularization [49.1574468325115]
ニューラルネットワークに基づく機械学習モデルのトレーニングには、機密情報を含む大きなデータセットが必要である。
差分的にプライベートなSGD [DP-SGD] は、新しいモデルをトレーニングするために標準勾配降下アルゴリズム(SGD)を変更する必要がある。
より効率的な方法で同じ目標を達成するための新しい正規化戦略が提案されている。
論文 参考訳(メタデータ) (2024-09-25T17:59:32Z) - Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Differentially Private Synthetic Data Generation via
Lipschitz-Regularised Variational Autoencoders [3.7463972693041274]
生成モデルが個々のトレーニング記録の多くの詳細を記憶する傾向があることは、しばしば見落とされがちである。
本稿では,生成モデルにおける本質を直接活用するデータ生成手法について検討する。
論文 参考訳(メタデータ) (2023-04-22T07:24:56Z) - Why Is Public Pretraining Necessary for Private Model Training? [50.054565310457306]
公開データに対する事前トレーニングは、非プライベートな設定よりも顕著な利益をもたらすことを示す。
トレードオフは、アルゴリズムが2つのフェーズを通過する必要のある、より深い損失モデルかもしれない、と私たちは主張する。
直観によって導かれた理論的な構成は、公的な事前訓練なしでの私的分離を確実に実証するものである。
論文 参考訳(メタデータ) (2023-02-19T05:32:20Z) - Fine-Tuning with Differential Privacy Necessitates an Additional
Hyperparameter Search [38.83524780461911]
トレーニング済みニューラルネットワークで微調整されたレイヤを慎重に選択することで、プライバシと正確性の間に新たな最先端のトレードオフを確立することができることを示す。
ImageNetで事前トレーニングされたモデルに対して、CIFAR-100上で$(varepsilon, delta)= (2, 10-5)$に対して77.9%の精度を達成する。
論文 参考訳(メタデータ) (2022-10-05T11:32:49Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。