論文の概要: Unlocking Accuracy and Fairness in Differentially Private Image
Classification
- arxiv url: http://arxiv.org/abs/2308.10888v1
- Date: Mon, 21 Aug 2023 17:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 12:17:56.715660
- Title: Unlocking Accuracy and Fairness in Differentially Private Image
Classification
- Title(参考訳): 個人差分画像分類におけるアンロック精度と公正性
- Authors: Leonard Berrada, Soham De, Judy Hanwen Shen, Jamie Hayes, Robert
Stanforth, David Stutz, Pushmeet Kohli, Samuel L. Smith, Borja Balle
- Abstract要約: 差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
- 参考スコア(独自算出の注目度): 43.53494043189235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-preserving machine learning aims to train models on private data
without leaking sensitive information. Differential privacy (DP) is considered
the gold standard framework for privacy-preserving training, as it provides
formal privacy guarantees. However, compared to their non-private counterparts,
models trained with DP often have significantly reduced accuracy. Private
classifiers are also believed to exhibit larger performance disparities across
subpopulations, raising fairness concerns. The poor performance of classifiers
trained with DP has prevented the widespread adoption of privacy preserving
machine learning in industry. Here we show that pre-trained foundation models
fine-tuned with DP can achieve similar accuracy to non-private classifiers,
even in the presence of significant distribution shifts between pre-training
data and downstream tasks. We achieve private accuracies within a few percent
of the non-private state of the art across four datasets, including two medical
imaging benchmarks. Furthermore, our private medical classifiers do not exhibit
larger performance disparities across demographic groups than non-private
models. This milestone to make DP training a practical and reliable technology
has the potential to widely enable machine learning practitioners to train
safely on sensitive datasets while protecting individuals' privacy.
- Abstract(参考訳): プライバシ保存機械学習は、機密情報を漏らすことなく、プライベートデータでモデルをトレーニングすることを目的としている。
差分プライバシー(DP)は、正式なプライバシー保証を提供するため、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
しかし、非民間モデルと比較すると、dpで訓練されたモデルは精度が著しく低下することが多い。
個人分類器はまた、サブポピュレーション全体のパフォーマンス格差が大きく、公平性に関する懸念を生じさせると考えられている。
DPで訓練された分類器の低性能は、業界におけるプライバシー保護機械学習の普及を妨げている。
本稿では,事前学習データと下流タスク間の大きな分散シフトが存在する場合でも,dpを微調整した事前学習基礎モデルが非プライベート分類器と同等の精度を実現できることを示す。
2つの医用画像ベンチマークを含む4つのデータセットにわたって、プライベートな精度をプライベートに達成しています。
さらに,私的医療分類器は,非私的モデルよりも人口集団間のパフォーマンス格差が大きくない。
DPトレーニングを実用的で信頼性の高い技術にするこのマイルストーンは、マシンラーニング実践者が個人のプライバシーを保護しながら、機密性の高いデータセットで安全にトレーニングすることが可能な可能性がある。
関連論文リスト
- Differentially Private Prototypes for Imbalanced Transfer Learning [16.028575596905554]
本稿では,個人間移動学習の新たなパラダイムとして,DPPL(differially Private Prototype Learning)を提案する。
DPPLは、埋め込み空間内の各プライベートクラスを表すプロトタイプを生成し、推論のために公開することができる。
エンコーダの事前トレーニング以上の公開データを活用すれば,プライバシユーティリティのトレードオフをさらに改善できることを示す。
論文 参考訳(メタデータ) (2024-06-12T09:41:12Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings [34.26542589537452]
差分プライベート(DP)学習の方法は、プライバシ保証付きモデルを学習するための汎用的なアプローチを提供する。
DP学習の現代的な手法は、情報に過度にユニークなと判断される情報を検閲するメカニズムを通じて、プライバシーを確保する。
我々はDP学習に最先端の手法を用いて,臨床予測タスクにおけるプライバシ保護モデルを訓練する。
論文 参考訳(メタデータ) (2020-10-13T19:56:37Z) - Private Knowledge Transfer via Model Distillation with Generative
Adversarial Networks [7.0202040971648705]
従来のディープラーニングモデルは、個人の機密情報を回復するプライバシー攻撃の傾向にある。
近年、プライバシー保証を提供する差分プライバシが提案され、トレーニングデータを保護するために、プライバシに制限された方法でニューラルネットワークをトレーニングしている。
そこで我々は,機密データに基づいて訓練された個人教師が一般に公開されていないが,学生に公開教育を施す,新たな私的知識伝達戦略を提案する。
論文 参考訳(メタデータ) (2020-04-05T12:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。