論文の概要: Oracle-Efficient Differentially Private Learning with Public Data
- arxiv url: http://arxiv.org/abs/2402.09483v1
- Date: Tue, 13 Feb 2024 23:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 18:28:46.938984
- Title: Oracle-Efficient Differentially Private Learning with Public Data
- Title(参考訳): パブリックデータによるOracle効率の良い微分プライベートラーニング
- Authors: Adam Block, Mark Bun, Rathin Desai, Abhishek Shetty, and Steven Wu
- Abstract要約: 本稿では,関数クラスが非プライベートに学習可能な場合に,公開データを利用してプライベートに学習するアルゴリズムを初めて提案する。
本稿では,関数クラスが凸である場合や,タスクが二項分類である場合の特別な場合において,サンプルの複雑さを改善した特殊アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.771932463130252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to statistical lower bounds on the learnability of many function classes
under privacy constraints, there has been recent interest in leveraging public
data to improve the performance of private learning algorithms. In this model,
algorithms must always guarantee differential privacy with respect to the
private samples while also ensuring learning guarantees when the private data
distribution is sufficiently close to that of the public data. Previous work
has demonstrated that when sufficient public, unlabelled data is available,
private learning can be made statistically tractable, but the resulting
algorithms have all been computationally inefficient. In this work, we present
the first computationally efficient, algorithms to provably leverage public
data to learn privately whenever a function class is learnable non-privately,
where our notion of computational efficiency is with respect to the number of
calls to an optimization oracle for the function class. In addition to this
general result, we provide specialized algorithms with improved sample
complexities in the special cases when the function class is convex or when the
task is binary classification.
- Abstract(参考訳): プライバシの制約下での多くの関数クラスの学習可能性の統計的な低さから,プライベートラーニングアルゴリズムの性能向上にパブリックデータを活用することに対する近年の関心が高まっている。
このモデルでは、アルゴリズムは常にプライベートサンプルに対する差分プライバシーを保証すると同時に、プライベートデータの分布がパブリックデータに十分近い場合の学習保証も保証しなければならない。
これまでの研究では、十分に公開されていないデータが利用可能であれば、プライベートな学習を統計的に抽出できることが実証されてきたが、結果として得られるアルゴリズムはすべて計算的に非効率である。
本研究では,関数クラスが非プライベートに学習可能である場合,関数クラスに対する最適化オラクルへの呼び出し数に対して,計算効率の概念が適用可能である場合に,パブリックデータを利用してプライベートに学習するアルゴリズムを初めて提案する。
この一般的な結果に加えて、関数クラスが凸である場合やタスクが二分分類である場合の特別な場合において、サンプル複雑性を改善した特別なアルゴリズムを提供する。
関連論文リスト
- PILLAR: How to make semi-private learning more effective [12.292092677396347]
Semi-Supervised Semi-Private (SP)学習では、学習者は公開されていないラベル付きデータとプライベートラベル付きデータの両方にアクセスすることができる。
そこで本研究では,実世界のデータセット上で効率よく動作可能な,プライベートラベル付きサンプルの複雑さを著しく低減する計算効率のよいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-06T18:45:05Z) - Privacy-preserving Non-negative Matrix Factorization with Outliers [2.84279467589473]
プライバシー保護フレームワークにおける非負行列分解アルゴリズムの開発に焦点をあてる。
プライベートデータを操作可能な非負行列分解のための新しいプライバシ保存アルゴリズムを提案する。
提案するフレームワークの性能を6つの実データ集合で示す。
論文 参考訳(メタデータ) (2022-11-02T19:42:18Z) - Learning-Augmented Private Algorithms for Multiple Quantile Release [27.58033173923427]
本稿では,プライバシ保護手法を設計・解析するための強力な手法として,学習強化アルゴリズム(あるいは予測付きアルゴリズム)フレームワークを提案する。
予測品質の自然な尺度でそのスケールを保証し、(ほとんど)最先端の予測非依存の保証を回復する。
論文 参考訳(メタデータ) (2022-10-20T12:59:00Z) - Stochastic Differentially Private and Fair Learning [7.971065005161566]
我々は、収束することが保証されるフェアラーニングのための最初の微分プライベートアルゴリズムを提供する。
われわれのフレームワークは、人口格差や均等化オッズなど、さまざまな公平さを許容できるほど柔軟である。
本アルゴリズムは,複数の(非バイナリ)機密属性を持つ非バイナリ分類タスクに適用可能である。
論文 参考訳(メタデータ) (2022-10-17T06:54:57Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - New Oracle-Efficient Algorithms for Private Synthetic Data Release [52.33506193761153]
微分プライベートな合成データを構築するための3つの新しいアルゴリズムを提案する。
アルゴリズムは最悪の場合でも差分プライバシーを満たす。
現状の手法である高次元行列機構 citeMcKennaMHM18 と比較すると,我々のアルゴリズムは大規模作業負荷の精度が向上する。
論文 参考訳(メタデータ) (2020-07-10T15:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。