論文の概要: Private Knowledge Transfer via Model Distillation with Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2004.04631v1
- Date: Sun, 5 Apr 2020 12:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:26:46.670686
- Title: Private Knowledge Transfer via Model Distillation with Generative
Adversarial Networks
- Title(参考訳): 生成逆ネットワークを用いたモデル蒸留による私的知識伝達
- Authors: Di Gao and Cheng Zhuo
- Abstract要約: 従来のディープラーニングモデルは、個人の機密情報を回復するプライバシー攻撃の傾向にある。
近年、プライバシー保証を提供する差分プライバシが提案され、トレーニングデータを保護するために、プライバシに制限された方法でニューラルネットワークをトレーニングしている。
そこで我々は,機密データに基づいて訓練された個人教師が一般に公開されていないが,学生に公開教育を施す,新たな私的知識伝達戦略を提案する。
- 参考スコア(独自算出の注目度): 7.0202040971648705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of deep learning applications has to address the growing
privacy concerns when using private and sensitive data for training. A
conventional deep learning model is prone to privacy attacks that can recover
the sensitive information of individuals from either model parameters or
accesses to the target model. Recently, differential privacy that offers
provable privacy guarantees has been proposed to train neural networks in a
privacy-preserving manner to protect training data. However, many approaches
tend to provide the worst case privacy guarantees for model publishing,
inevitably impairing the accuracy of the trained models. In this paper, we
present a novel private knowledge transfer strategy, where the private teacher
trained on sensitive data is not publicly accessible but teaches a student to
be publicly released. In particular, a three-player
(teacher-student-discriminator) learning framework is proposed to achieve
trade-off between utility and privacy, where the student acquires the distilled
knowledge from the teacher and is trained with the discriminator to generate
similar outputs as the teacher. We then integrate a differential privacy
protection mechanism into the learning procedure, which enables a rigorous
privacy budget for the training. The framework eventually allows student to be
trained with only unlabelled public data and very few epochs, and hence
prevents the exposure of sensitive training data, while ensuring model utility
with a modest privacy budget. The experiments on MNIST, SVHN and CIFAR-10
datasets show that our students obtain the accuracy losses w.r.t teachers of
0.89%, 2.29%, 5.16%, respectively with the privacy bounds of (1.93, 10^-5),
(5.02, 10^-6), (8.81, 10^-6). When compared with the existing works
\cite{papernot2016semi,wang2019private}, the proposed work can achieve 5-82%
accuracy loss improvement.
- Abstract(参考訳): ディープラーニングアプリケーションのデプロイは、プライベートとセンシティブなデータをトレーニングに使用する際のプライバシー上の懸念に対処する必要がある。
従来のディープラーニングモデルは、モデルパラメータまたはターゲットモデルへのアクセスから個人の機密情報を復元できるプライバシー攻撃の傾向にある。
近年,プライバシ保証を提供するディファレンシャルプライバシが,トレーニングデータを保護するプライバシ保存方式でニューラルネットワークをトレーニングするために提案されている。
しかし、多くのアプローチはモデルパブリッシングにおいて最悪の場合のプライバシー保証を提供し、訓練されたモデルの精度を必然的に損なう傾向がある。
本稿では,機密データに基づいて訓練された個人教師が公開されていないが,学生に公開教育を行う,新たな知識伝達戦略を提案する。
特に,教師とプライバシのトレードオフを実現するために,教師が教師から蒸留知識を取得し,差別者とともに訓練し,教師と類似のアウトプットを生成する3人の教師(教師-生徒-差別者)学習フレームワークが提案されている。
次に,学習手順にディファレンシャルプライバシ保護機構を統合することで,トレーニングのための厳格なプライバシ予算を実現する。
最終的にこのフレームワークにより、学生は未学習の公開データとごく少数のエポックでトレーニングを受けられるようになり、それによって機密性のあるトレーニングデータの露出を防ぎつつ、プライバシー予算の緩やかなモデルユーティリティを確保できる。
MNIST, SVHN, CIFAR-10データセットを用いた実験の結果, 学生は 0.89%, 2.29%, 5.16%, プライバシ境界は (1.93, 10^-5), (5.02, 10^-6), (8.81, 10^-6) であった。
既存の作品と比較すると、提案手法は5-82%の精度の損失改善を達成できる。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Privacy-Preserving Student Learning with Differentially Private Data-Free Distillation [35.37005050907983]
プライバシーを保護したディープラーニングモデルを学習するための効果的な教師学生学習手法を提案する。
データプライバシを公開することなく、モデルトレーニングのために大量の合成データを生成することができる。
学生は、プライベートレーベルの監督の下で、合成データに基づいて訓練される。
論文 参考訳(メタデータ) (2024-09-19T01:00:18Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Differentially Private Deep Learning with Smooth Sensitivity [144.31324628007403]
プライバシーに関する懸念を、差分プライバシーのレンズを通して研究する。
このフレームワークでは、モデルのトレーニングに使用されるデータの詳細が曖昧になるようにモデルを摂動することで、一般的にプライバシー保証が得られます。
過去の研究で使われた最も重要なテクニックの1つは、教師モデルのアンサンブルであり、ノイズの多い投票手順に基づいて生徒に情報を返す。
本研究では,イミュータブルノイズArgMaxと呼ばれるスムーズな感性を有する新しい投票機構を提案する。これは,ある条件下では,学生に伝達される有用な情報に影響を与えることなく,教師から非常に大きなランダムノイズを発生させることができる。
論文 参考訳(メタデータ) (2020-03-01T15:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。