論文の概要: Differentially-Private Bayes Consistency
- arxiv url: http://arxiv.org/abs/2212.04216v1
- Date: Thu, 8 Dec 2022 11:57:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:15:39.209706
- Title: Differentially-Private Bayes Consistency
- Title(参考訳): Differentially-Private Bayes Consistency
- Authors: Olivier Bousquet, Haim Kaplan, Aryeh Kontorovich, Yishay Mansour, Shay
Moran, Menachem Sadigurschi, Uri Stemmer
- Abstract要約: 差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
- 参考スコア(独自算出の注目度): 70.92545332158217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We construct a universally Bayes consistent learning rule that satisfies
differential privacy (DP). We first handle the setting of binary classification
and then extend our rule to the more general setting of density estimation
(with respect to the total variation metric). The existence of a universally
consistent DP learner reveals a stark difference with the distribution-free PAC
model. Indeed, in the latter DP learning is extremely limited: even
one-dimensional linear classifiers are not privately learnable in this
stringent model. Our result thus demonstrates that by allowing the learning
rate to depend on the target distribution, one can circumvent the
above-mentioned impossibility result and in fact, learn \emph{arbitrary}
distributions by a single DP algorithm. As an application, we prove that any VC
class can be privately learned in a semi-supervised setting with a near-optimal
\emph{labeled} sample complexity of $\tilde{O}(d/\varepsilon)$ labeled examples
(and with an unlabeled sample complexity that can depend on the target
distribution).
- Abstract(参考訳): 我々は、差分プライバシー(dp)を満たす普遍ベイズ一貫性学習ルールを構築する。
まず、二項分類の設定を扱い、次に規則をより一般的な密度推定の設定へと拡張する(全変量に関して)。
普遍的に一貫したDP学習者が存在することは、分布のないPACモデルと大きな違いを示す。
実際、後者のDP学習は極めて限定的であり、1次元線形分類器でさえこの厳密なモデルではプライベートに学習できない。
以上の結果から,学習速度が対象の分布に依存することを許すことで,上記の不可能な結果を回避することができ,実際に1つのDPアルゴリズムを用いてemph{arbitrary}分布を学習できることが示唆された。
アプリケーションとして、任意のVCクラスを半教師付き設定でプライベートに学習できることを証明し、ほぼ最適な \emph{labeled} サンプルの複雑さを$\tilde{O}(d/\varepsilon)$ラベル付き例(およびターゲット分布に依存する未ラベルのサンプルの複雑さ)で証明する。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Out-Of-Domain Unlabeled Data Improves Generalization [0.7589678255312519]
本稿では,ラベルなしデータを半教師付き分類問題に組み込む新しい枠組みを提案する。
ラベルのないサンプルは一般化ギャップを狭めるために利用できることを示す。
我々は、さまざまな合成および実世界のデータセットで実施された実験を通じて、我々の主張を検証する。
論文 参考訳(メタデータ) (2023-09-29T02:00:03Z) - Learning versus Refutation in Noninteractive Local Differential Privacy [133.80204506727526]
非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
論文 参考訳(メタデータ) (2022-10-26T03:19:24Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - What You See is What You Get: Distributional Generalization for
Algorithm Design in Deep Learning [12.215964287323876]
微分プライバシー(DP)と分布一般化(DG)の概念の関連性について検討・活用する。
我々は、標準勾配降下(SGD)の「病理」をバイパスするディープラーニング手法を設計するための新しい概念ツールを導入する。
論文 参考訳(メタデータ) (2022-04-07T05:41:40Z) - Self-Supervised Learning by Estimating Twin Class Distributions [26.7828253129684]
本稿では,大規模未ラベルデータセットをエンドツーエンドに分類し,自己教師付き表現学習手法TWISTを提案する。
2つの拡張画像の2つのクラス分布を生成するために、ソフトマックス演算で終了するシマセネットワークを用いる。
具体的には、各サンプルの分布のエントロピーを最小化し、各サンプルのクラス予測を行い、平均分布のエントロピーを最大化し、異なるサンプルの予測を多様化させる。
論文 参考訳(メタデータ) (2021-10-14T14:39:39Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。