論文の概要: Robust and Private Learning of Halfspaces
- arxiv url: http://arxiv.org/abs/2011.14580v2
- Date: Thu, 25 Mar 2021 23:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:55:37.692088
- Title: Robust and Private Learning of Halfspaces
- Title(参考訳): 半空間のロバストでプライベートな学習
- Authors: Badih Ghazi, Ravi Kumar, Pasin Manurangsi, Thao Nguyen
- Abstract要約: 学習ハーフスペースにおけるL2摂動下での差分プライバシーと対向ロバスト性の間のトレードオフについて検討する。
私たちの結果のハイライトは、堅牢でプライベートな学習は、堅牢な学習やプライベートな学習よりも難しい、ということです。
- 参考スコア(独自算出の注目度): 44.8212138280303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study the trade-off between differential privacy and
adversarial robustness under L2-perturbations in the context of learning
halfspaces. We prove nearly tight bounds on the sample complexity of robust
private learning of halfspaces for a large regime of parameters. A highlight of
our results is that robust and private learning is harder than robust or
private learning alone. We complement our theoretical analysis with
experimental results on the MNIST and USPS datasets, for a learning algorithm
that is both differentially private and adversarially robust.
- Abstract(参考訳): 本研究では,L2摂動下での差分プライバシーと対向ロバスト性とのトレードオフを,学習ハーフスペースの文脈で検討する。
ハーフスペースのロバストなプライベートラーニングのサンプル複雑性のほぼ厳密な境界をパラメータの大規模な構成で証明する。
私たちの結果のハイライトは、堅牢でプライベートな学習は、堅牢でプライベートな学習よりも難しい、ということです。
MNISTおよびUSPSデータセットの実験結果と理論解析を補完し、差分プライベートかつ対角ロバストな学習アルゴリズムを提案する。
関連論文リスト
- On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Learning to be adversarially robust and differentially private [42.7930886063265]
我々は、頑健で微分プライベートな最適化から生じる学習の難しさについて研究する。
プライベート最適化によって導入されたデータ次元依存用語は、堅牢なモデルを学ぶのが困難である。
差分プライバシーにおける敵の一般化とクリッピング規範の大きさは、損失景観の曲率を増大させ、性能の低下を示唆する。
論文 参考訳(メタデータ) (2022-01-06T22:33:06Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - DiPSeN: Differentially Private Self-normalizing Neural Networks For
Adversarial Robustness in Federated Learning [6.1448102196124195]
フェデレーション学習は、プライバシー侵害や情報の漏洩から保護するのに役立ちます。
機械学習モデルを敵のサンプルから防御することがより困難にする新しいリスクベクターを導入している。
DiPSeNは、差分プライバシーノイズの要素と自己正規化技術を組み合わせた差分プライベート自己正規化ニューラルネットワークです。
論文 参考訳(メタデータ) (2021-01-08T20:49:56Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Efficiently Learning Adversarially Robust Halfspaces with Noise [69.01459748050453]
本研究では,分布に依存しない環境下で,逆向きに頑健なハーフスペースを学習する問題について検討する。
実現可能な設定では、ハーフ空間が効果的に学習可能な対向摂動集合に対して必要かつ十分な条件を提供する。
論文 参考訳(メタデータ) (2020-05-15T17:13:54Z) - Privately Learning Markov Random Fields [44.95321417724914]
我々は、差分プライバシーの制約の下でランダムフィールド(イジングモデルを含む)を学習する問題を考察する。
私たちは、さまざまなプライバシー制約の下で、両方の問題に対してアルゴリズムと低いバウンダリを提供します。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z) - Efficient, Noise-Tolerant, and Private Learning via Boosting [15.62988331732388]
本研究では,大規模ハーフスペースのための耐雑音性とプライベートなPAC学習者を構築する方法について述べる。
この最初の境界は、プライバシからPAC学習者を取得するための一般的な方法論を示している。
2つ目の境界は、大きな有理半空間の微分プライベート学習において最もよく知られたサンプルの複雑さに適合する標準手法を使用する。
論文 参考訳(メタデータ) (2020-02-04T03:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。