論文の概要: Efficient, Noise-Tolerant, and Private Learning via Boosting
- arxiv url: http://arxiv.org/abs/2002.01100v1
- Date: Tue, 4 Feb 2020 03:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 02:32:54.488695
- Title: Efficient, Noise-Tolerant, and Private Learning via Boosting
- Title(参考訳): boostingによる効率的、ノイズ耐性、プライベートラーニング
- Authors: Mark Bun, Marco Leandro Carmosino, Jessica Sorrell
- Abstract要約: 本研究では,大規模ハーフスペースのための耐雑音性とプライベートなPAC学習者を構築する方法について述べる。
この最初の境界は、プライバシからPAC学習者を取得するための一般的な方法論を示している。
2つ目の境界は、大きな有理半空間の微分プライベート学習において最もよく知られたサンプルの複雑さに適合する標準手法を使用する。
- 参考スコア(独自算出の注目度): 15.62988331732388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a simple framework for designing private boosting algorithms. We
give natural conditions under which these algorithms are differentially
private, efficient, and noise-tolerant PAC learners. To demonstrate our
framework, we use it to construct noise-tolerant and private PAC learners for
large-margin halfspaces whose sample complexity does not depend on the
dimension.
We give two sample complexity bounds for our large-margin halfspace learner.
One bound is based only on differential privacy, and uses this guarantee as an
asset for ensuring generalization. This first bound illustrates a general
methodology for obtaining PAC learners from privacy, which may be of
independent interest. The second bound uses standard techniques from the theory
of large-margin classification (the fat-shattering dimension) to match the best
known sample complexity for differentially private learning of large-margin
halfspaces, while additionally tolerating random label noise.
- Abstract(参考訳): プライベートブースティングアルゴリズムを設計するためのシンプルなフレームワークを導入する。
我々はこれらのアルゴリズムが差分プライベートで、効率的で、耐雑音性のあるPAC学習者である自然条件を与える。
この枠組みを実証するために,標本複雑性が次元に依存しない大規模半空間に対して,雑音耐性およびプライベートpac学習器を構築する。
大数学のハーフスペース学習者に2つのサンプル複雑性境界を与えます。
1つの境界は差分プライバシーのみに基づいており、この保証を一般化を保証するための資産として利用する。
この最初の境界は、独立した関心を持つかもしれないプライバシーからpac学習者を得る一般的な方法を示している。
第2境界は、大マルジン分類理論(脂肪散乱次元)の標準手法を用いて、大マルジンハーフスペースの微分プライベート学習において最もよく知られたサンプルの複雑さと一致し、さらにランダムラベルノイズを許容する。
関連論文リスト
- On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - On PAC Learning Halfspaces in Non-interactive Local Privacy Model with
Public Unlabeled Data [18.820311737806456]
非インタラクティブ局所微分モデル(NLDP)におけるPAC学習ハーフスペースの問題について検討する。
本研究は,個人データと公開データの両方において,次元および他の用語でのみ線形なサンプル複素量を実現することができることを示す。
論文 参考訳(メタデータ) (2022-09-17T12:19:20Z) - Private Alternating Least Squares: Practical Private Matrix Completion
with Tighter Rates [34.023599653814415]
ユーザレベルのプライバシの下で、差分的プライベート(DP)行列補完の問題について検討する。
本稿では,Alternating-Least-Squares (ALS) 方式の差分型を設計する。
論文 参考訳(メタデータ) (2021-07-20T23:19:11Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。