論文の概要: Multiclass versus Binary Differentially Private PAC Learning
- arxiv url: http://arxiv.org/abs/2107.10870v1
- Date: Thu, 22 Jul 2021 18:06:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-07-27 02:17:37.674300
- Title: Multiclass versus Binary Differentially Private PAC Learning
- Title(参考訳): multiclass vs binary differentially private pac learning
- Authors: Mark Bun, Marco Gaboardi, Satchit Sivakumar
- Abstract要約: 多クラス差分プライベートPAC学習からバイナリプライベートPAC学習への一般化について述べる。
我々の証明は、Ben-Davidらによる[JCSS '95]で定義された$Psi$-dimensionの概念をオンライン設定に拡張し、その一般的な性質を探求する。
- 参考スコア(独自算出の注目度): 32.22526322514124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show a generic reduction from multiclass differentially private PAC
learning to binary private PAC learning. We apply this transformation to a
recently proposed binary private PAC learner to obtain a private multiclass
learner with sample complexity that has a polynomial dependence on the
multiclass Littlestone dimension and a poly-logarithmic dependence on the
number of classes. This yields an exponential improvement in the dependence on
both parameters over learners from previous work. Our proof extends the notion
of $\Psi$-dimension defined in work of Ben-David et al. [JCSS '95] to the
online setting and explores its general properties.
- Abstract(参考訳): 多クラス差分プライベートPAC学習からバイナリプライベートPAC学習への一般化について述べる。
この変換を最近提案したバイナリプライベートPAC学習者に適用し,多クラスLittlestone次元への多項式依存とクラス数への多対数依存を有するサンプル複雑性を持つプライベートマルチクラス学習者を得る。
これにより、以前の研究からの学習者に対する両方のパラメータへの依存が指数関数的に改善される。
我々の証明はベンダビッドらの仕事で定義される$\Psi$-dimensionの概念を拡張している。
JCSS '95]をオンライン設定に適用し、その汎用性を探求する。
関連論文リスト
- Multi-View Majority Vote Learning Algorithms: Direct Minimization of PAC-Bayesian Bounds [0.8039067099377079]
我々は PAC-Bayesian 理論を拡張し、R'enyi divergence に基づいた新しい PAC-Bayesian 境界を導入する。
これらの境界は、伝統的なクルバック・リーブラーの発散を改善し、より洗練された複雑性尺度を提供する。
また,多視点学習のためのC-boundの拡張とともに,第1次および第2次オラクルPAC-Bayesian境界を提案する。
論文 参考訳(メタデータ) (2024-11-09T20:25:47Z) - Private PAC Learning May be Harder than Online Learning [14.180842831990999]
リトルストーン次元の任意の概念クラス$d$は、$mathrmpoly(d)$サンプルを用いてプライベートにPACが学習できることを示す。
これにより、オンライン学習者からプライベートPAC学習者への汎用的な変換が存在するかどうかという自然な疑問が提起される。
論文 参考訳(メタデータ) (2024-02-16T22:44:52Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Differentially Private Multivariate Time Series Forecasting of
Aggregated Human Mobility With Deep Learning: Input or Gradient Perturbation? [14.66445694852729]
本稿では,関係する個人のプライバシーを維持しつつ,多変量集約型移動度予測の問題について検討する。
最先端の形式概念である差分プライバシーは、ディープラーニングモデルをトレーニングする際の2つの異なる独立したステップにおいて、プライバシ保証として使用されている。
その結果、勾配や入力摂動下で訓練された差分プライベートなディープラーニングモデルは、非プライベートなディープラーニングモデルとほぼ同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-05-01T10:11:04Z) - A Characterization of Multiclass Learnability [18.38631912121182]
DS次元はDanielyとShalev-Shwartz 2014によって定義された次元である。
リスト学習設定では、与えられた未知の入力に対して単一の結果を予測する代わりに、予測の短いメニューを提供することが目標である。
2つ目の主な成果は、多クラス学習の可能性を特徴づける中心的な候補であるナタラジャン次元に関するものである。
論文 参考訳(メタデータ) (2022-03-03T07:41:54Z) - Sample-efficient proper PAC learning with approximate differential
privacy [51.09425023771246]
近似微分プライバシーを持つリトルストーン次元のクラスを適切に学習するサンプル複雑性が$tilde o(d6)$であることを証明し、プライバシーパラメータと精度パラメータを無視する。
この結果は Bun et al の質問に答えます。
(FOCS 2020) サンプルの複雑さに$2O(d)$の上限で改善することによって。
論文 参考訳(メタデータ) (2020-12-07T18:17:46Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - A Computational Separation between Private Learning and Online Learning [19.001036556917818]
概念クラスは、オンライン学習可能であれば、かつ、オンライン学習可能であれば、プライベートに学習可能である。
この等価性は、サンプルと計算効率の両方に大きな損失をもたらす。
単方向関数の存在を前提として、そのような効率的な変換は、サンプル複雑性を持つ純粋にプライベートな学習者にとって不可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T02:41:54Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - Efficient, Noise-Tolerant, and Private Learning via Boosting [15.62988331732388]
本研究では,大規模ハーフスペースのための耐雑音性とプライベートなPAC学習者を構築する方法について述べる。
この最初の境界は、プライバシからPAC学習者を取得するための一般的な方法論を示している。
2つ目の境界は、大きな有理半空間の微分プライベート学習において最もよく知られたサンプルの複雑さに適合する標準手法を使用する。
論文 参考訳(メタデータ) (2020-02-04T03:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。