論文の概要: The Limits of Pan Privacy and Shuffle Privacy for Learning and
Estimation
- arxiv url: http://arxiv.org/abs/2009.08000v3
- Date: Thu, 3 Dec 2020 19:05:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 12:13:26.550225
- Title: The Limits of Pan Privacy and Shuffle Privacy for Learning and
Estimation
- Title(参考訳): 学習と推定のためのpanプライバシーとshuffleプライバシーの限界
- Authors: Albert Cheu and Jonathan Ullman
- Abstract要約: 種々の高次元学習および推定問題に対して,シャッフルモデルとパンプライベートモデルでは,中央モデルと比較してサンプルの複雑さが指数関数的に高くなることを示す。
我々の研究は、パンプライベートモデルと一般的なマルチメッセージシャッフルモデルの両方に対して、これらの問題に対する最初の非自明な下界を与える。
- 参考スコア(独自算出の注目度): 3.2942333712377083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a recent wave of interest in intermediate trust models for
differential privacy that eliminate the need for a fully trusted central data
collector, but overcome the limitations of local differential privacy. This
interest has led to the introduction of the shuffle model (Cheu et al.,
EUROCRYPT 2019; Erlingsson et al., SODA 2019) and revisiting the pan-private
model (Dwork et al., ITCS 2010). The message of this line of work is that, for
a variety of low-dimensional problems -- such as counts, means, and histograms
-- these intermediate models offer nearly as much power as central differential
privacy. However, there has been considerably less success using these models
for high-dimensional learning and estimation problems. In this work, we show
that, for a variety of high-dimensional learning and estimation problems, both
the shuffle model and the pan-private model inherently incur an exponential
price in sample complexity relative to the central model. For example, we show
that, private agnostic learning of parity functions over $d$ bits requires
$\Omega(2^{d/2})$ samples in these models, and privately selecting the most
common attribute from a set of $d$ choices requires $\Omega(d^{1/2})$ samples,
both of which are exponential separations from the central model. Our work
gives the first non-trivial lower bounds for these problems for both the
pan-private model and the general multi-message shuffle model.
- Abstract(参考訳): 完全な信頼された中央データコレクタの必要性をなくしながら、ローカルな差分プライバシの制限を克服する、ディファレンシャルプライバシのための中間信頼モデルに対する近年の関心が高まっている。
この関心はシャッフルモデルの導入(Cheu et al., EUROCRYPT 2019, Erlingsson et al., SODA 2019)と、パンプライベートモデルの再検討(Dwork et al., ITCS 2010)につながっている。
この一連の作業のメッセージは、数、平均、ヒストグラムなど、さまざまな低次元の問題に対して、これらの中間モデルが中央微分プライバシーと同程度のパワーを提供する、というものだ。
しかし、これらのモデルを用いた高次元学習および推定問題に対する成功例は極めて少ない。
本研究では,様々な高次元学習および推定問題に対して,シャッフルモデルとパンプライベートモデルの両方が,本質的に中央モデルに対するサンプル複雑性の指数関数的価格を伴っていることを示す。
例えば、$d$bit 上のパリティ関数のプライベート非依存学習では、これらのモデルで $\omega(2^{d/2})$ のサンプルが必要であり、$d$ の一連の選択から最も一般的な属性をプライベートに選択するには$\omega(d^{1/2})$ のサンプルが必要であり、どちらも中央モデルからの指数的分離である。
我々の研究は、パンプライベートモデルと一般的なマルチメッセージシャッフルモデルの両方に対して、これらの問題に対する最初の非自明な下界を与える。
関連論文リスト
- Beyond Closure Models: Learning Chaotic-Systems via Physics-Informed Neural Operators [78.64101336150419]
カオスシステムの長期的挙動を予測することは、気候モデリングなどの様々な応用に不可欠である。
このような完全解法シミュレーションに対する別のアプローチは、粗いグリッドを使用して、時間テキストモデルによってエラーを修正することである。
この制限を克服する物理インフォームド・ニューラル演算子(PINO)を用いたエンド・ツー・エンドの学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T17:05:45Z) - Efficient Verification-Based Face Identification [50.616875565173274]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - Differentially Private Reward Estimation with Preference Feedback [15.943664678210146]
嗜好に基づくフィードバックから学ぶことは最近、生成モデルと人間の関心を結びつけるための有望なアプローチとして、かなりの注目を集めている。
上記のパイプラインの任意のステップにおける敵攻撃は、人間のラベルのプライベートで機密性の高い情報を明らかにする可能性がある。
我々は、各ラベルのプライバシーを保護しつつ、嗜好に基づくフィードバックからの報酬推定の問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-10-30T16:58:30Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Pre-trained Perceptual Features Improve Differentially Private Image
Generation [8.659595986100738]
差分降下勾配(DP-SGD)を用いた中等度生成モデルの訓練も困難である。
私たちは、情報のある公開データセット上に適切な、関連する表現を構築し、その表現でプライベートデータをモデル化することを学びます。
私たちの研究は、プライベートと非プライベートの深層生成モデルの間のギャップを減らすための、シンプルで強力な基盤を導入しています。
論文 参考訳(メタデータ) (2022-05-25T16:46:01Z) - Tight Differential Privacy Guarantees for the Shuffle Model with $k$-Randomized Response [6.260747047974035]
ほとんどの差分プライベート(DP)アルゴリズムは、サードパーティがデータセットやユーザがローカルにデータを摂動するローカルモデル上で作成したクエリにノイズを挿入することを前提としている。
最近提案されたシャッフルモデルは、中央パラダイムと局所パラダイムの中間フレームワークである。
合成データと実データの両方を用いて、シャッフルモデルのプライバシーユーティリティトレードオフと、民営化された中央データの比較実験を行う。
論文 参考訳(メタデータ) (2022-05-18T10:44:28Z) - Shuffle Private Linear Contextual Bandits [9.51828574518325]
シャッフル・アルゴリズム・トラスト・モデルに基づく線形文脈帯域の一般的な枠組みを提案する。
両方のインスタンス化が、ローカルモデルの精度を大幅に向上させる、後悔の保証につながることを証明します。
また, 合成データのシミュレーションにより, この後悔行動を検証する。
論文 参考訳(メタデータ) (2022-02-11T11:53:22Z) - On the Intrinsic Differential Privacy of Bagging [69.70602220716718]
我々は、Bagingが、同じプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも、はるかに高い精度を達成することを示す。
実験結果から,Bagingは,同一のプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも格段に高い精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-08-22T14:17:55Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z) - Input Perturbation: A New Paradigm between Central and Local
Differential Privacy [15.943736378291154]
我々は,DP-ERMにおけるテキスト入力摂動法について検討した。
最終モデルでは差分プライバシー(epsilon$,$delta$)を、オリジナルのデータには何らかのプライバシーを達成しています。
当社の手法は,プライバシ保護の強化を図った従来手法とほぼ同じ(あるいはそれ以上の)パフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-02-20T05:20:02Z) - On the Difference Between the Information Bottleneck and the Deep
Information Bottleneck [81.89141311906552]
本稿では,Deep Variational Information Bottleneckとその導出に必要な仮定について再考する。
後者のマルコフ連鎖のみを満たすべき$I(T;Y)$に対して下界を最適化することで、この制限を回避する方法を示す。
論文 参考訳(メタデータ) (2019-12-31T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。