論文の概要: The Trade-Offs of Private Prediction
- arxiv url: http://arxiv.org/abs/2007.05089v1
- Date: Thu, 9 Jul 2020 22:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:39:46.752271
- Title: The Trade-Offs of Private Prediction
- Title(参考訳): 民間予測のトレードオフ
- Authors: Laurens van der Maaten and Awni Hannun
- Abstract要約: プライベートな予測は、プライベートなトレーニング手法でトレーニングされたモデルを使用して達成できる。
プライベートトレーニング手法は、広範囲のプライベート予測設定においてプライベート予測方法より優れている。
- 参考スコア(独自算出の注目度): 25.226781070551393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models leak information about their training data every time
they reveal a prediction. This is problematic when the training data needs to
remain private. Private prediction methods limit how much information about the
training data is leaked by each prediction. Private prediction can also be
achieved using models that are trained by private training methods. In private
prediction, both private training and private prediction methods exhibit
trade-offs between privacy, privacy failure probability, amount of training
data, and inference budget. Although these trade-offs are theoretically
well-understood, they have hardly been studied empirically. This paper presents
the first empirical study into the trade-offs of private prediction. Our study
sheds light on which methods are best suited for which learning setting.
Perhaps surprisingly, we find private training methods outperform private
prediction methods in a wide range of private prediction settings.
- Abstract(参考訳): 機械学習モデルは、予測を公開するたびにトレーニングデータに関する情報をリークする。
トレーニングデータがプライベートのままである必要がある場合、これは問題となる。
プライベート予測手法は、各予測によってトレーニングデータに関する情報リーク量を制限する。
プライベートな予測は、プライベートなトレーニング手法でトレーニングされたモデルを使って達成することもできる。
プライベート予測では、プライベートトレーニングとプライベート予測の両方の方法が、プライバシ、プライバシ障害確率、トレーニングデータ量、推論予算の間のトレードオフを示している。
これらのトレードオフは理論的によく理解されているものの、実証的な研究はほとんど行われていない。
本稿では,個人予測のトレードオフに関する最初の実証研究を行う。
我々の研究は、どの学習環境に最も適した方法に光を当てている。
意外なことに、プライベートなトレーニング手法は、幅広いプライベートな予測設定においてプライベートな予測方法よりも優れています。
関連論文リスト
- On the Benefits of Public Representations for Private Transfer Learning under Distribution Shift [40.553022057469285]
一般のプレトレーニングは、プライベートトレーニングをスクラッチから最大67%改善できることを示す。
この現象の理論的説明として、公開データとプライベートデータが低次元表現を共有している場合、公開表現は、プライベートトレーニングのサンプルの複雑さを改善することができることを示す。
論文 参考訳(メタデータ) (2023-12-24T21:46:14Z) - Why Is Public Pretraining Necessary for Private Model Training? [50.054565310457306]
公開データに対する事前トレーニングは、非プライベートな設定よりも顕著な利益をもたらすことを示す。
トレードオフは、アルゴリズムが2つのフェーズを通過する必要のある、より深い損失モデルかもしれない、と私たちは主張する。
直観によって導かれた理論的な構成は、公的な事前訓練なしでの私的分離を確実に実証するものである。
論文 参考訳(メタデータ) (2023-02-19T05:32:20Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - SecretGen: Privacy Recovery on Pre-Trained Models via Distribution
Discrimination [17.916489394284284]
本研究では,新たなプライベートデータ再構築フレームワークであるSecretGenを提案する。
SecretGenは、真のクラスの予測に関する事前の知識を必要としない。
私たちはSecretGenが、そのような事前知識を活用するものと比較して、同様のパフォーマンスでプライベートデータを復元できることを示します。
論文 参考訳(メタデータ) (2022-07-25T15:35:07Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Private Knowledge Transfer via Model Distillation with Generative
Adversarial Networks [7.0202040971648705]
従来のディープラーニングモデルは、個人の機密情報を回復するプライバシー攻撃の傾向にある。
近年、プライバシー保証を提供する差分プライバシが提案され、トレーニングデータを保護するために、プライバシに制限された方法でニューラルネットワークをトレーニングしている。
そこで我々は,機密データに基づいて訓練された個人教師が一般に公開されていないが,学生に公開教育を施す,新たな私的知識伝達戦略を提案する。
論文 参考訳(メタデータ) (2020-04-05T12:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。