論文の概要: Bayesian Pseudo Posterior Mechanism for Differentially Private Machine Learning
- arxiv url: http://arxiv.org/abs/2503.21528v1
- Date: Thu, 27 Mar 2025 14:17:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:49.678640
- Title: Bayesian Pseudo Posterior Mechanism for Differentially Private Machine Learning
- Title(参考訳): 個人差分学習のためのベイズ擬似後処理機構
- Authors: Robert Chew, Matthew R. Williams, Elan A. Segarra, Alexander J. Preiss, Amanda Konet, Terrance D. Savitsky,
- Abstract要約: 異なるプライバシ(DP)は、デプロイされた機械学習アプリケーションにとってますます重要になっています。
擬似後続分布を用いた学習モデルSWAG-PPMのための拡張性のあるDP機構を提案する。
SWAG-PPMは、私的でないコンパレータに対してわずかに機能劣化しか示さないが、同様のプライバシー予算のために業界標準のDP-SGDを大きく上回っている。
- 参考スコア(独自算出の注目度): 38.068924764486255
- License:
- Abstract: Differential privacy (DP) is becoming increasingly important for deployed machine learning applications because it provides strong guarantees for protecting the privacy of individuals whose data is used to train models. However, DP mechanisms commonly used in machine learning tend to struggle on many real world distributions, including highly imbalanced or small labeled training sets. In this work, we propose a new scalable DP mechanism for deep learning models, SWAG-PPM, by using a pseudo posterior distribution that downweights by-record likelihood contributions proportionally to their disclosure risks as the randomized mechanism. As a motivating example from official statistics, we demonstrate SWAG-PPM on a workplace injury text classification task using a highly imbalanced public dataset published by the U.S. Occupational Safety and Health Administration (OSHA). We find that SWAG-PPM exhibits only modest utility degradation against a non-private comparator while greatly outperforming the industry standard DP-SGD for a similar privacy budget.
- Abstract(参考訳): 異なるプライバシ(DP)は、モデルをトレーニングするためにデータが使用される個人のプライバシを保護する強力な保証を提供するため、デプロイされた機械学習アプリケーションにとってますます重要になっている。
しかし、機械学習で一般的に使用されるDPメカニズムは、高度に不均衡なトレーニングセットや小さなラベル付きトレーニングセットを含む、多くの現実世界の分布に苦しむ傾向にある。
そこで本研究では,情報開示リスクに比例して重み付けした擬似後分布を用いて,深層学習モデルのためのスケーラブルDP機構であるSWAG-PPMを提案する。
公式統計のモチベーションとして、米国職業安全衛生局(OSHA)が公表した高度にバランスのとれた公開データセットを用いて、職場傷害テキスト分類タスクでSWAG-PPMを実証する。
SWAG-PPMは、私的でないコンパレータに対してわずかに機能劣化しか示さないが、同様のプライバシー予算のために業界標準のDP-SGDを大きく上回っている。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - DiVa: An Accelerator for Differentially Private Machine Learning [1.054627611890905]
差別化プライバシ(DP)は、プライバシー保護の実用的な標準として、業界で急速に勢いを増している。
DP-SGD という,最先端の差分型プライベートML トレーニングアルゴリズムを用いて,作業負荷の詳細な評価を行う。
そこで本研究では,差分型プライベートMLであるDiVaのアクセラレータを提案する。
論文 参考訳(メタデータ) (2022-08-26T01:19:56Z) - DP$^2$-VAE: Differentially Private Pre-trained Variational Autoencoders [26.658723213776632]
DP保証付き変分オートエンコーダ(VAE)のトレーニング機構であるDP$2$-VAEを提案する。
さまざまなプライバシ予算と評価指標の下で,ベースラインよりも優位性を示すために,画像データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-05T23:57:34Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - DP-SGD vs PATE: Which Has Less Disparate Impact on Model Accuracy? [1.3238373064156095]
差分プライバシーの適用、特にDP-SGDアルゴリズムは、人口の異なるサブグループに異なる影響を与えることを示す。
差分プライバシーを用いたディープラーニングモデルの学習機構であるPATEと、公平性の観点からDP-SGDを比較した。
論文 参考訳(メタデータ) (2021-06-22T20:37:12Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。