論文の概要: Generalized PTR: User-Friendly Recipes for Data-Adaptive Algorithms with
Differential Privacy
- arxiv url: http://arxiv.org/abs/2301.00301v1
- Date: Sat, 31 Dec 2022 22:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:28:26.619099
- Title: Generalized PTR: User-Friendly Recipes for Data-Adaptive Algorithms with
Differential Privacy
- Title(参考訳): generalized ptr:差分プライバシーを持つデータ適応アルゴリズムのためのユーザフレンドリーなレシピ
- Authors: Rachel Redberg, Yuqing Zhu, Yu-Xiang Wang
- Abstract要約: 「PTR」(Propose-Test-Release)は、微分プライベート(DP)アルゴリズムを設計するための古典的なレシピである。
PTRは、ローカルな感度よりも、データ依存のプライバシー損失をプライベートにテストすることで、より一般的な設定に拡張します。
- 参考スコア(独自算出の注目度): 16.374676154278614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ''Propose-Test-Release'' (PTR) framework is a classic recipe for
designing differentially private (DP) algorithms that are data-adaptive, i.e.
those that add less noise when the input dataset is nice. We extend PTR to a
more general setting by privately testing data-dependent privacy losses rather
than local sensitivity, hence making it applicable beyond the standard
noise-adding mechanisms, e.g. to queries with unbounded or undefined
sensitivity. We demonstrate the versatility of generalized PTR using private
linear regression as a case study. Additionally, we apply our algorithm to
solve an open problem from ''Private Aggregation of Teacher Ensembles (PATE)''
-- privately releasing the entire model with a delicate data-dependent
analysis.
- Abstract(参考訳): 'propose-test-release''(ptr)フレームワークは、データ適応性のある差分プライベート(dp)アルゴリズムを設計するための古典的なレシピである。
私たちは、ptrをローカルの感度ではなく、データ依存のプライバシー損失をプライベートにテストすることで、より一般的な設定に拡張します。
本研究は,プライベート線形回帰を用いた一般化PTRの汎用性を示す。
さらに,本アルゴリズムを適用して,「教師の集まりのプライベートアグリゲーション(PATE)」から開放的な問題を解く。
関連論文リスト
- Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Better Private Linear Regression Through Better Private Feature
Selection [18.884088349732973]
我々は、Kendallランク相関に基づく微分プライベートな特徴選択手法を提案する。
機能は通常分散されている設定で有効性を保証する。
回帰の前にこのプライベートな特徴選択ステップを追加することで、プラグアンドプレイのプライベートな線形回帰アルゴリズムの適用性が大幅に拡大することがわかった。
論文 参考訳(メタデータ) (2023-06-01T17:21:10Z) - Choosing Public Datasets for Private Machine Learning via Gradient
Subspace Distance [35.653510597396114]
差分的なプライベート勾配降下は、各反復にノイズを注入することで、モデルパラメータの数に応じてノイズの大きさが増加するモデルトレーニングを民営化する。
近年の研究では、パブリックデータによって規定される部分空間に勾配を投影することにより、パブリックデータをプライベート機械学習に活用することでノイズを低減できることが示唆されている。
我々は,公立と私設の例の勾配の低次元部分空間距離を測定することで,公開データセットを選択するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-02T13:36:28Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Renyi Differential Privacy of Propose-Test-Release and Applications to
Private and Robust Machine Learning [34.091112544190125]
Propose-Test-Release(PTR)は、関数の局所的な感度で動作する、グローバルな感度ではなく、差分プライバシーフレームワークである。
我々はPTRと理論結果を用いて、ビザンチン頑健なトレーニングアルゴリズムのための微分プライベートな変種を設計できることを示す。
論文 参考訳(メタデータ) (2022-09-16T04:48:22Z) - Differentially Private Graph Learning via Sensitivity-Bounded
Personalized PageRank [74.53857412207034]
本稿では,近似的なPPRを出力し,入力エッジに有界な感度を持つアルゴリズムを提案する。
我々の感度バウンドPPRは、差分プライベート(DP)PPRランキング、DPノード分類、DPノード埋め込みなど、グラフ学習のいくつかのツールのプライベートアルゴリズムを直接意味している。
論文 参考訳(メタデータ) (2022-07-14T14:08:59Z) - Control Variates for Slate Off-Policy Evaluation [112.35528337130118]
多次元動作を伴うバッチ化されたコンテキスト帯域データから政治外評価の問題について検討する。
我々は, PIと自己正規化PIの双方に対して, リスク改善を保証した新しい推定器を得る。
論文 参考訳(メタデータ) (2021-06-15T06:59:53Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z) - Privacy-Preserving Public Release of Datasets for Support Vector Machine
Classification [14.095523601311374]
我々は,データ対象者のプライバシーを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。
データセットは、プライバシ保護のための付加ノイズを使用して、体系的に難読化される。
元のデータセットから抽出された分類器と難読化された分類器が互いに近接していることを保証する条件を確立する。
論文 参考訳(メタデータ) (2019-12-29T03:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。