論文の概要: Privately Learning Markov Random Fields
- arxiv url: http://arxiv.org/abs/2002.09463v2
- Date: Fri, 14 Aug 2020 14:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 01:11:04.710013
- Title: Privately Learning Markov Random Fields
- Title(参考訳): 個人学習のマルコフ確率場
- Authors: Huanyu Zhang, Gautam Kamath, Janardhan Kulkarni, Zhiwei Steven Wu
- Abstract要約: 我々は、差分プライバシーの制約の下でランダムフィールド(イジングモデルを含む)を学習する問題を考察する。
私たちは、さまざまなプライバシー制約の下で、両方の問題に対してアルゴリズムと低いバウンダリを提供します。
- 参考スコア(独自算出の注目度): 44.95321417724914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of learning Markov Random Fields (including the
prototypical example, the Ising model) under the constraint of differential
privacy. Our learning goals include both structure learning, where we try to
estimate the underlying graph structure of the model, as well as the harder
goal of parameter learning, in which we additionally estimate the parameter on
each edge. We provide algorithms and lower bounds for both problems under a
variety of privacy constraints -- namely pure, concentrated, and approximate
differential privacy. While non-privately, both learning goals enjoy roughly
the same complexity, we show that this is not the case under differential
privacy. In particular, only structure learning under approximate differential
privacy maintains the non-private logarithmic dependence on the dimensionality
of the data, while a change in either the learning goal or the privacy notion
would necessitate a polynomial dependence. As a result, we show that the
privacy constraint imposes a strong separation between these two learning
problems in the high-dimensional data regime.
- Abstract(参考訳): 我々は,微分プライバシーの制約下でマルコフ確率場(原型的例,イジングモデルを含む)を学習する問題を考える。
私たちの学習目標には、モデルの基礎となるグラフ構造を推定しようとする構造学習と、各エッジのパラメータを推定するパラメータ学習の難しい目標の両方が含まれています。
私たちは、さまざまなプライバシー制約、すなわち純粋、集中、近似微分プライバシーの下で、両方の問題に対するアルゴリズムと低い境界を提供します。
プライベートではありませんが、どちらの学習目標もほぼ同じ複雑さを享受しています。
特に、近似微分プライバシー下の構造学習のみがデータの次元に対する非プライベート対数依存を維持し、一方、学習目標またはプライバシ概念の変更は多項式依存を必要とする。
その結果,プライバシ制約が高次元データ構造におけるこれらの2つの学習問題を強く分離していることが判明した。
関連論文リスト
- Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Differentially private partitioned variational inference [28.96767727430277]
複数のデバイスに分散している機密データから、プライバシ保護モデルを学ぶことは、ますます重要な問題である。
ベイズ分布に対する変分近似を学習するための最初の一般フレームワークである差分分割変分推論について述べる。
論文 参考訳(メタデータ) (2022-09-23T13:58:40Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Differentially Private Multivariate Time Series Forecasting of
Aggregated Human Mobility With Deep Learning: Input or Gradient Perturbation? [14.66445694852729]
本稿では,関係する個人のプライバシーを維持しつつ,多変量集約型移動度予測の問題について検討する。
最先端の形式概念である差分プライバシーは、ディープラーニングモデルをトレーニングする際の2つの異なる独立したステップにおいて、プライバシ保証として使用されている。
その結果、勾配や入力摂動下で訓練された差分プライベートなディープラーニングモデルは、非プライベートなディープラーニングモデルとほぼ同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-05-01T10:11:04Z) - Learning to be adversarially robust and differentially private [42.7930886063265]
我々は、頑健で微分プライベートな最適化から生じる学習の難しさについて研究する。
プライベート最適化によって導入されたデータ次元依存用語は、堅牢なモデルを学ぶのが困難である。
差分プライバシーにおける敵の一般化とクリッピング規範の大きさは、損失景観の曲率を増大させ、性能の低下を示唆する。
論文 参考訳(メタデータ) (2022-01-06T22:33:06Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。