論文の概要: Can we infer the presence of Differential Privacy in Deep Learning
models' weights? Towards more secure Deep Learning
- arxiv url: http://arxiv.org/abs/2311.11717v1
- Date: Mon, 20 Nov 2023 12:35:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:07:56.676918
- Title: Can we infer the presence of Differential Privacy in Deep Learning
models' weights? Towards more secure Deep Learning
- Title(参考訳): ディープラーニングモデルの重み付けにおける差分プライバシーの存在を推測できるだろうか?
よりセキュアなディープラーニングに向けて
- Authors: Jim\'enez-L\'opez, Daniel and Rodr\'iguez-Barroso, Nuria and Luz\'on,
M. Victoria and Herrera, Francisco
- Abstract要約: 差分プライバシー(DP)は、データとモデルを整合性攻撃から保護するための鍵となる特性である。
ディープラーニング(DL)分野では、ディファレンシャル・プライベート・グラディエント・ディフレッシュ(DP-SGD)を通じて一般的に実装される。
- 参考スコア(独自算出の注目度): 9.809011258672816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential Privacy (DP) is a key property to protect data and models from
integrity attacks. In the Deep Learning (DL) field, it is commonly implemented
through the Differentially Private Stochastic Gradient Descent (DP-SGD).
However, when a model is shared or released, there is no way to check whether
it is differentially private, that is, it required to trust the model provider.
This situation poses a problem when data privacy is mandatory, specially with
current data regulations, as the presence of DP can not be certificated
consistently by any third party. Thus, we face the challenge of determining
whether a DL model has been trained with DP, according to the title question:
Can we infer the presence of Differential Privacy in Deep Learning models'
weights? Since the DP-SGD significantly changes the training process of a DL
model, we hypothesize that DP leaves an imprint in the weights of a DL model,
which can be used to predict whether a model has been trained with DP
regardless of its architecture and the training dataset. In this paper, we
propose to employ the imprint in model weights of using DP to infer the
presence of DP training in a DL model. To substantiate our hypothesis, we
developed an experimental methodology based on two datasets of weights of DL
models, each with models with and without DP training and a meta-classifier to
infer whether DP was used in the training process of a DL model, by accessing
its weights. We accomplish both, the removal of the requirement of a trusted
model provider and a strong foundation for this interesting line of research.
Thus, our contribution is an additional layer of security on top of the strict
private requirements of DP training in DL models, towards to DL models.
- Abstract(参考訳): ディファレンシャルプライバシ(dp)は、データとモデルを完全性攻撃から保護する重要な特性である。
Deep Learning (DL) の分野では、DP-SGD (differially Private Stochastic Gradient Descent) によって一般的に実装されている。
しかし、モデルが共有されたり、リリースされたりすると、そのモデルプロバイダを信頼する必要のある差分プライベートかどうかをチェックする方法がない。
この状況は、データプライバシが必須である場合、特に現在のデータ規制では、DPの存在がサードパーティによって一貫して証明できないため、問題となる。
したがって、dlモデルがdpで訓練されたかどうかを決定するという課題に直面する:深層学習モデルの重みにおける差分プライバシーの存在を推測できるか?
DP-SGD は DL モデルのトレーニング過程を著しく変化させるため,DP は DL モデルの重み付けにインプリントを残し,そのモデルが DP のアーキテクチャやトレーニングデータセットによらず,DP でトレーニングされたかどうかを予測できる,という仮説を立てる。
本稿では,DP モデルにおけるDP トレーニングの存在を推定するために,DP を用いたモデル重みのインプリントを用いることを提案する。
提案手法は,2つのDLモデルの重みのデータセットに基づいて,DPモデルのトレーニングプロセスでDPが使用されているかどうかを,その重みにアクセスして推定するメタクラス化手法である。
我々は、信頼できるモデルプロバイダの要求の排除と、この興味深い研究ラインの強力な基盤の両方を達成します。
したがって、我々の貢献は、DLモデルにおけるDPトレーニングの厳格なプライベート要件に加えて、DLモデルへの追加的なセキュリティ層である。
関連論文リスト
- Pre-training Differentially Private Models with Limited Public Data [54.943023722114134]
ディファレンシャルプライバシ(DP)は、モデルに提供されるセキュリティの度合いを測定するための重要な手法である。
DPはまだ、最初の事前訓練段階で使用されるデータのかなりの部分を保護することができない。
公共データの10%しか利用しない新しいDP継続事前学習戦略を開発した。
ImageNet-21kのDP精度は41.5%、非DP精度は55.7%、下流タスクのPlaces365とiNaturalist-2021では60.0%である。
論文 参考訳(メタデータ) (2024-02-28T23:26:27Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - On the Efficacy of Differentially Private Few-shot Image Classification [40.49270725252068]
パーソナライズやフェデレーション学習を含む多くのアプリケーションにおいて、数ショット設定でうまく機能することが不可欠である。
本稿では,クラス毎のショット数,プライバシレベル,モデルアーキテクチャ,下流データセット,学習可能なパラメータのサブセットなど,DP画像分類モデルの精度と脆弱性がどう影響するかを示す。
論文 参考訳(メタデータ) (2023-02-02T16:16:25Z) - Differentially Private Diffusion Models [46.46256537222917]
我々は近年の拡散モデル(DM)の成功の上に構築され、微分プライベート拡散モデル(DPDM)を導入している。
DMのトレーニングに適したDP-SGDの強力な修正であるノイズ多重性を提案する。
我々は,新しいDPDMを画像生成ベンチマークで検証し,すべての実験で最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T15:20:47Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Large Language Models Can Be Strong Differentially Private Learners [70.0317718115406]
Differentially Private(DP)学習は、テキストの大規模なディープラーニングモデルを構築する上で、限られた成功を収めている。
この性能低下は,大規模な事前学習モデルを用いることで緩和可能であることを示す。
本稿では,DP-SGDにおけるクリッピングを,サンプルごとの勾配をインスタンス化せずに実行可能にするメモリ節約手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:45:27Z) - An Efficient DP-SGD Mechanism for Large Scale NLP Models [28.180412581994485]
自然言語理解(NLU)モデルを訓練するために使用されるデータは、住所や電話番号などのプライベート情報を含むことができる。
基礎となるモデルは、トレーニングデータに含まれるプライベート情報を公開しないことが望ましい。
プライバシ保護モデルを構築するメカニズムとして,DP-SGD(Fariially Private Gradient Descent)が提案されている。
論文 参考訳(メタデータ) (2021-07-14T15:23:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。