論文の概要: Private Everlasting Prediction
- arxiv url: http://arxiv.org/abs/2305.09579v1
- Date: Tue, 16 May 2023 16:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 13:59:43.091075
- Title: Private Everlasting Prediction
- Title(参考訳): プライベートな永遠予測
- Authors: Moni Naor, Kobbi Nissim, Uri Stemmer, Chao Yan
- Abstract要約: 個人学習者は、ラベル付きポイントのサンプルに基づいて訓練され、新しくサンプリングされたポイントのラベルを予測するのに使用できる仮説を生成する。
民間の学習者は、非民間の学習者よりもはるかに高いサンプルの複雑さを示す必要があるかもしれない。
本稿では,PACモデルにおけるプライベート永遠予測器の汎用的な構成について述べる。
- 参考スコア(独自算出の注目度): 25.11710918054182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A private learner is trained on a sample of labeled points and generates a
hypothesis that can be used for predicting the labels of newly sampled points
while protecting the privacy of the training set [Kasiviswannathan et al., FOCS
2008]. Research uncovered that private learners may need to exhibit
significantly higher sample complexity than non-private learners as is the case
with, e.g., learning of one-dimensional threshold functions [Bun et al., FOCS
2015, Alon et al., STOC 2019].
We explore prediction as an alternative to learning. Instead of putting
forward a hypothesis, a predictor answers a stream of classification queries.
Earlier work has considered a private prediction model with just a single
classification query [Dwork and Feldman, COLT 2018]. We observe that when
answering a stream of queries, a predictor must modify the hypothesis it uses
over time, and, furthermore, that it must use the queries for this
modification, hence introducing potential privacy risks with respect to the
queries themselves.
We introduce private everlasting prediction taking into account the privacy
of both the training set and the (adaptively chosen) queries made to the
predictor. We then present a generic construction of private everlasting
predictors in the PAC model. The sample complexity of the initial training
sample in our construction is quadratic (up to polylog factors) in the VC
dimension of the concept class. Our construction allows prediction for all
concept classes with finite VC dimension, and in particular threshold functions
with constant size initial training sample, even when considered over infinite
domains, whereas it is known that the sample complexity of privately learning
threshold functions must grow as a function of the domain size and hence is
impossible for infinite domains.
- Abstract(参考訳): 個人学習者は、ラベル付きポイントのサンプルに基づいてトレーニングを行い、トレーニングセットのプライバシを保護しながら、新たにサンプリングされたポイントのラベルを予測できる仮説を生成する(Kasiviswannathan et al., FOCS 2008)。
私立学習者は、例えば1次元閾値関数(Bun et al., FOCS 2015, Alon et al., STOC 2019)の学習のように、非私立学習者よりもはるかに高いサンプル複雑さを示す必要がある。
学習の代替手段として予測を探求する。
仮説を提示する代わりに、予測者は分類クエリのストリームに答える。
以前の作業では、単一の分類クエリ(DworkとFeldman, COLT 2018)でプライベートな予測モデルを検討していました。
我々は,クエリのストリームに応答する場合,予測者が使用する仮説を時間とともに修正する必要があること,さらにクエリをこの修正に使用する必要があること,従ってクエリ自体に対して潜在的なプライバシーリスクが生じることを観察する。
トレーニングセットと(適切に選択された)クエリの両方のプライバシを考慮した,プライベートな永続予測を導入する。
次に、PACモデルにおけるプライベート永遠予測器の一般的な構成を示す。
我々の構成における初期訓練サンプルのサンプルの複雑さは、概念クラスのVC次元における二次的(ポリログ因子まで)である。
我々の構成では、有限VC次元のすべての概念クラス、特に無限大の初期訓練サンプルを持つしきい値関数の予測が可能であるが、プライベートに学習するしきい値関数のサンプル複雑性は、ドメインサイズの関数として成長し、したがって無限大では不可能であることが知られている。
関連論文リスト
- Private Truly-Everlasting Robust-Prediction [22.662255469977598]
プライベート・エバースト・予測(Private Everlasting Prediction, PEP)は、学習者が仮説を公開しない、微分プライベート学習のモデルである。
PEPは、初期トレーニングセットと、エンドツーエンドの分類クエリストリームの両方に対して、プライバシを提供する。
我々は, PEPの定義に対する2つの概念的修正と, 従来の作業よりも大幅に改善された新しい構成を提案する。
論文 参考訳(メタデータ) (2024-01-09T02:00:55Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Training Private Models That Know What They Don't Know [40.19666295972155]
いくつかの一般的な選択的予測手法は、差分的にプライベートな環境では効果がないことがわかった。
モデルユーティリティレベルを越えた選択予測性能を分離する新しい評価機構を提案する。
論文 参考訳(メタデータ) (2023-05-28T12:20:07Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Differentially Private Online Bayesian Estimation With Adaptive
Truncation [1.14219428942199]
そこで本研究では,集団に関する静的パラメータの偏微分プライベートなベイズオンライン推定のための,新しいオンライン・適応的トランケーション手法を提案する。
予測クエリを小さな感度で設計することを目的としており、それによってプライバシー保護ノイズが小さくなり、同じレベルのプライバシーを維持しながらより正確な推定が可能となる。
論文 参考訳(メタデータ) (2023-01-19T17:53:53Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Set Prediction without Imposing Structure as Conditional Density
Estimation [40.86881969839325]
本研究では,学習を条件密度推定として見ることにより,設定損失による学習の代替を提案する。
本フレームワークは, 深部エネルギーモデルに適合し, 勾配誘導サンプリングによる難易度を近似する。
我々のアプローチは、標準ベンチマークの以前のセット予測モデルと競合する。
論文 参考訳(メタデータ) (2020-10-08T16:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。