論文の概要: Differentially Private Learning Needs Better Features (or Much More
Data)
- arxiv url: http://arxiv.org/abs/2011.11660v3
- Date: Thu, 18 Feb 2021 02:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 01:43:15.840479
- Title: Differentially Private Learning Needs Better Features (or Much More
Data)
- Title(参考訳): プライベートな学習には優れた機能(あるいはもっと多くのデータ)が必要だ
- Authors: Florian Tram\`er and Dan Boneh
- Abstract要約: 我々は、多くの標準的な視覚タスクにおいて、微分プライベート機械学習がまだ"AlexNet moment"に達していないことを示す。
プライベートな学習は、より多くのプライベートデータを必要とするか、あるいは同様のドメインからパブリックデータで学んだ機能にアクセスする必要があることを示す。
- 参考スコア(独自算出の注目度): 24.41019518205281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate that differentially private machine learning has not yet
reached its "AlexNet moment" on many canonical vision tasks: linear models
trained on handcrafted features significantly outperform end-to-end deep neural
networks for moderate privacy budgets. To exceed the performance of handcrafted
features, we show that private learning requires either much more private data,
or access to features learned on public data from a similar domain. Our work
introduces simple yet strong baselines for differentially private learning that
can inform the evaluation of future progress in this area.
- Abstract(参考訳): 我々は、多くの標準的なビジョンタスクにおいて、微分プライベート機械学習がまだ"AlexNet moment"に達していないことを実証した。
手作り機能のパフォーマンスを上回るためには、プライベートラーニングはもっと多くのプライベートデータを必要とするか、同じドメインのパブリックデータで学習された機能にアクセスする必要がある。
本研究は,この分野の今後の進展を評価するための,単純かつ強固なベースラインを提案する。
関連論文リスト
- Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Free Lunch for Privacy Preserving Distributed Graph Learning [1.8292714902548342]
分散グラフ学習とグラフベース機械学習のための新しいプライバシ参照フレームワークを提案する。
本フレームワークは,生データの本来の構造特性を保ちながら,実際の特徴を必要とせずに,特徴と距離を学習することを目的としている。
論文 参考訳(メタデータ) (2023-05-18T10:41:21Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Self-Supervised Pretraining for Differentially Private Learning [5.3358356207700055]
自己教師付き事前学習(SSP)は、差分プライバシー(DP)を用いたディープラーニングのためのスケーラブルなソリューションである
我々は,SSPが生成する特徴を1つの画像だけに示すことで,同一のプライバシー予算下での非学習手作り機能よりも,プライベートな分類器がはるかに優れた実用性を得ることができることを示す。
論文 参考訳(メタデータ) (2022-06-14T19:30:23Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Differentially Private Graph Classification with GNNs [5.830410490229634]
グラフネットワーク(GNN)は多くの機械学習アプリケーションの最先端モデルとして確立されている。
グラフにおける機械学習の重要な応用の1つであるグラフレベル分類の差分プライバシーを導入する。
各種の合成および公開データセットについて結果を示し、異なるGNNアーキテクチャの影響を評価する。
論文 参考訳(メタデータ) (2022-02-05T15:16:40Z) - DPlis: Boosting Utility of Differentially Private Deep Learning via
Randomized Smoothing [0.0]
DPlis--Differentially Private Learning wIth Smoothingを提案します。
DPlisは,プライバシ予算の下でモデル品質とトレーニングの安定性を効果的に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-02T06:33:14Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Differentially Private Deep Learning with Smooth Sensitivity [144.31324628007403]
プライバシーに関する懸念を、差分プライバシーのレンズを通して研究する。
このフレームワークでは、モデルのトレーニングに使用されるデータの詳細が曖昧になるようにモデルを摂動することで、一般的にプライバシー保証が得られます。
過去の研究で使われた最も重要なテクニックの1つは、教師モデルのアンサンブルであり、ノイズの多い投票手順に基づいて生徒に情報を返す。
本研究では,イミュータブルノイズArgMaxと呼ばれるスムーズな感性を有する新しい投票機構を提案する。これは,ある条件下では,学生に伝達される有用な情報に影響を与えることなく,教師から非常に大きなランダムノイズを発生させることができる。
論文 参考訳(メタデータ) (2020-03-01T15:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。