論文の概要: Certification for Differentially Private Prediction in Gradient-Based Training
- arxiv url: http://arxiv.org/abs/2406.13433v3
- Date: Fri, 06 Jun 2025 10:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:42.617523
- Title: Certification for Differentially Private Prediction in Gradient-Based Training
- Title(参考訳): グラディエントベーストレーニングにおける個人差分予測の認定
- Authors: Matthew Wicker, Philip Sosnin, Igor Shilov, Adrianna Janik, Mark N. Müller, Yves-Alexandre de Montjoye, Adrian Weller, Calvin Tsay,
- Abstract要約: 非私的モデルの出力にノイズを加えることによって、差分プライバシーが達成されるプライベート予測について検討する。
既存の方法は、モデルのグローバルな感度に比例したノイズに依存しており、多くの場合、プライベートトレーニングと比較して、準最適プライバシーユーティリティトレードオフをもたらす。
本稿では,凸緩和法と有界伝播法を利用して,データセット固有の上限値の予測感度を計算するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 36.686002369773014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study private prediction where differential privacy is achieved by adding noise to the outputs of a non-private model. Existing methods rely on noise proportional to the global sensitivity of the model, often resulting in sub-optimal privacy-utility trade-offs compared to private training. We introduce a novel approach for computing dataset-specific upper bounds on prediction sensitivity by leveraging convex relaxation and bound propagation techniques. By combining these bounds with the smooth sensitivity mechanism, we significantly improve the privacy analysis of private prediction compared to global sensitivity-based approaches. Experimental results across real-world datasets in medical image classification and natural language processing demonstrate that our sensitivity bounds are can be orders of magnitude tighter than global sensitivity. Our approach provides a strong basis for the development of novel privacy preserving technologies.
- Abstract(参考訳): 非私的モデルの出力にノイズを加えることによって、差分プライバシーが達成されるプライベート予測について検討する。
既存の方法は、モデルのグローバルな感度に比例したノイズに依存しており、多くの場合、プライベートトレーニングと比較して、準最適プライバシーユーティリティトレードオフをもたらす。
本稿では,凸緩和法と有界伝播法を利用して,データセット固有の上限値の予測感度を計算するための新しい手法を提案する。
これらの境界をスムーズな感度メカニズムと組み合わせることで、グローバルな感度に基づくアプローチと比較して、プライベート予測のプライバシー分析を大幅に改善する。
医用画像分類と自然言語処理における実世界のデータセットに対する実験結果から、我々の感度境界は、地球規模の感度よりもはるかに厳密であることが示された。
われわれのアプローチは、新しいプライバシー保護技術の発展に強力な基盤を提供する。
関連論文リスト
- Estimating the Conformal Prediction Threshold from Noisy Labels [22.841631892273547]
雑音ラベル付きデータに基づいて、ノイズのない共形閾値を推定する方法を示す。
我々は、ノイズ・アウェア・コンフォーマル・予測(NACP)のアプローチを検証し、いくつかの自然・医療画像分類データセットについて示す。
論文 参考訳(メタデータ) (2025-01-22T09:35:58Z) - $(ε, δ)$-Differentially Private Partial Least Squares Regression [1.8666451604540077]
我々は,モデルに基づくデータのプライバシーを確保するために,$(epsilon, delta)$-differentially private PLS (edPLS)アルゴリズムを提案する。
実験により、EDPLSはトレーニングデータに固有の変動源を回復することを目的とした、効果的なプライバシー攻撃を施すことが示されている。
論文 参考訳(メタデータ) (2024-12-12T10:49:55Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Adaptive Differential Privacy in Federated Learning: A Priority-Based
Approach [0.0]
フェデレートラーニング(FL)は、ローカルデータセットに直接アクセスせずにグローバルモデルを開発する。
DPはパラメータに一定のノイズを加えることで、プライバシーを保証するフレームワークを提供する。
本稿では,特徴量の相対的重要度に基づいて入射雑音の値を決定するFLの適応雑音付加法を提案する。
論文 参考訳(メタデータ) (2024-01-04T03:01:15Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Propagating Variational Model Uncertainty for Bioacoustic Call Label
Smoothing [15.929064190849665]
ベイズニューラルネットワークが計算した予測不確実性信号を用いて、モデルが訓練している自己学習タスクの学習をガイドすることに焦点を当てる。
コストのかかるモンテカルロサンプリングを選ばず、近似的な隠れ分散をエンドツーエンドに伝播する。
損失計算における不確かさの明示的利用により, 変動モデルにより予測・校正性能が向上したことを示す。
論文 参考訳(メタデータ) (2022-10-19T13:04:26Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。