論文の概要: On the Efficacy of Differentially Private Few-shot Image Classification
- arxiv url: http://arxiv.org/abs/2302.01190v1
- Date: Thu, 2 Feb 2023 16:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 13:28:08.279594
- Title: On the Efficacy of Differentially Private Few-shot Image Classification
- Title(参考訳): 差動小数点画像分類の有効性について
- Authors: Marlon Tobaben, Aliaksandra Shysheya, John Bronskill, Andrew Paverd,
Shruti Tople, Santiago Zanella-Beguelin, Richard E Turner, Antti Honkela
- Abstract要約: 数発のDP画像分類モデルの精度と脆弱性がどう影響を受けるかを示す。
我々は,非プライベートモデルと同等のDP精度を達成するためには,クラスごとのショットを増やさなければならないことを示す。
また、少数ショットの非プライベートモデルでも、メンバーシップ推論攻撃の影響を受けやすいことが判明した。
- 参考スコア(独自算出の注目度): 38.14390824978374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been significant recent progress in training differentially private
(DP) models which achieve accuracy that approaches the best non-private models.
These DP models are typically pretrained on large public datasets and then
fine-tuned on downstream datasets that are (i) relatively large, and (ii)
similar in distribution to the pretraining data. However, in many applications
including personalization, it is crucial to perform well in the few-shot
setting, as obtaining large amounts of labeled data may be problematic; and on
images from a wide variety of domains for use in various specialist settings.
To understand under which conditions few-shot DP can be effective, we perform
an exhaustive set of experiments that reveals how the accuracy and
vulnerability to attack of few-shot DP image classification models are affected
as the number of shots per class, privacy level, model architecture, dataset,
and subset of learnable parameters in the model vary. We show that to achieve
DP accuracy on par with non-private models, the shots per class must be
increased as the privacy level increases by as much as 32$\times$ for CIFAR-100
at $\epsilon=1$. We also find that few-shot non-private models are highly
susceptible to membership inference attacks. DP provides clear mitigation
against the attacks, but a small $\epsilon$ is required to effectively prevent
them. Finally, we evaluate DP federated learning systems and establish
state-of-the-art performance on the challenging FLAIR federated learning
benchmark.
- Abstract(参考訳): 最良の非プライベートモデルにアプローチする精度を達成するための差分プライベート(DP)モデルのトレーニングが、近年著しく進歩している。
これらのDPモデルは通常、大規模な公開データセットで事前トレーニングされ、下流データセットで微調整される。
(i)比較的大きい、そして
(ii)事前学習データと同様の分布である。
しかし、パーソナライゼーションを含む多くのアプリケーションでは、大量のラベル付きデータを取得することが問題となる可能性や、様々な専門的な設定で使用する様々なドメインの画像が問題となるため、少数の設定でうまく機能することが重要である。
最小ショットdpが有効な条件について理解するため,我々は,クラス毎のショット数,プライバシレベル,モデルアーキテクチャ,データセット,学習可能なパラメータのサブセットなどによって,少数ショットdpイメージ分類モデルの攻撃の正確性と脆弱性がどのように影響を受けるかを明らかにするための,徹底的な実験を行う。
非プライベートモデルと同等のdp精度を達成するためには、cifar-100のプライバシレベルが$\epsilon=1$で32$\times$になるので、クラスごとのショットを増やす必要がある。
また、少数ショットの非プライベートモデルがメンバーシップ推論攻撃の影響を受けやすいことも分かりました。
DPは攻撃に対する明確な緩和を提供するが、効果的に防止するためには小さな$\epsilon$が必要である。
最後に,dpフェデレーション学習システムを評価し,難解なflairフェデレーション学習ベンチマークで最先端のパフォーマンスを確立する。
関連論文リスト
- Differentially Private Fine-Tuning of Diffusion Models [22.454127503937883]
微分プライバシーと拡散モデル(DM)の統合は、有望だが挑戦的なフロンティアを示している。
この分野での最近の進歩は、公開データによる事前学習によって高品質な合成データを生成する可能性を強調している。
本稿では,プライバシとユーティリティのトレードオフを高めるために,トレーニング可能なパラメータの数を最小限に抑える,プライベート拡散モデルに最適化された戦略を提案する。
論文 参考訳(メタデータ) (2024-06-03T14:18:04Z) - Pre-training Differentially Private Models with Limited Public Data [54.943023722114134]
ディファレンシャルプライバシ(DP)は、モデルに提供されるセキュリティの度合いを測定するための重要な手法である。
DPはまだ、最初の事前訓練段階で使用されるデータのかなりの部分を保護することができない。
公共データの10%しか利用しない新しいDP継続事前学習戦略を開発した。
ImageNet-21kのDP精度は41.5%、非DP精度は55.7%、下流タスクのPlaces365とiNaturalist-2021では60.0%である。
論文 参考訳(メタデータ) (2024-02-28T23:26:27Z) - Differentially Private Diffusion Models [46.46256537222917]
我々は近年の拡散モデル(DM)の成功の上に構築され、微分プライベート拡散モデル(DPDM)を導入している。
DMのトレーニングに適したDP-SGDの強力な修正であるノイズ多重性を提案する。
我々は,新しいDPDMを画像生成ベンチマークで検証し,すべての実験で最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T15:20:47Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Large Language Models Can Be Strong Differentially Private Learners [70.0317718115406]
Differentially Private(DP)学習は、テキストの大規模なディープラーニングモデルを構築する上で、限られた成功を収めている。
この性能低下は,大規模な事前学習モデルを用いることで緩和可能であることを示す。
本稿では,DP-SGDにおけるクリッピングを,サンプルごとの勾配をインスタンス化せずに実行可能にするメモリ節約手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:45:27Z) - An Efficient DP-SGD Mechanism for Large Scale NLP Models [28.180412581994485]
自然言語理解(NLU)モデルを訓練するために使用されるデータは、住所や電話番号などのプライベート情報を含むことができる。
基礎となるモデルは、トレーニングデータに含まれるプライベート情報を公開しないことが望ましい。
プライバシ保護モデルを構築するメカニズムとして,DP-SGD(Fariially Private Gradient Descent)が提案されている。
論文 参考訳(メタデータ) (2021-07-14T15:23:27Z) - DPlis: Boosting Utility of Differentially Private Deep Learning via
Randomized Smoothing [0.0]
DPlis--Differentially Private Learning wIth Smoothingを提案します。
DPlisは,プライバシ予算の下でモデル品質とトレーニングの安定性を効果的に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-02T06:33:14Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。