論文の概要: On the Efficacy of Differentially Private Few-shot Image Classification
- arxiv url: http://arxiv.org/abs/2302.01190v2
- Date: Fri, 26 May 2023 08:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 20:51:17.370185
- Title: On the Efficacy of Differentially Private Few-shot Image Classification
- Title(参考訳): 差動小数点画像分類の有効性について
- Authors: Marlon Tobaben, Aliaksandra Shysheya, John Bronskill, Andrew Paverd,
Shruti Tople, Santiago Zanella-Beguelin, Richard E Turner, Antti Honkela
- Abstract要約: 数発のDP画像分類モデルの精度と脆弱性がどう影響を受けるかを示す。
FLAIRベンチマークに挑戦する上での最先端のパフォーマンスを確立した。
- 参考スコア(独自算出の注目度): 38.14390824978374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been significant recent progress in training differentially private
(DP) models which achieve accuracy that approaches the best non-private models.
These DP models are typically pretrained on large public datasets and then
fine-tuned on private downstream datasets that are relatively large and similar
in distribution to the pretraining data. However, in many applications
including personalization and federated learning, it is crucial to perform well
(i) in the few-shot setting, as obtaining large amounts of labeled data may be
problematic; and (ii) on datasets from a wide variety of domains for use in
various specialist settings. To understand under which conditions few-shot DP
can be effective, we perform an exhaustive set of experiments that reveals how
the accuracy and vulnerability to attack of few-shot DP image classification
models are affected as the number of shots per class, privacy level, model
architecture, downstream dataset, and subset of learnable parameters in the
model vary. We show that to achieve DP accuracy on par with non-private models,
the shots per class must be increased as the privacy level increases by as much
as 20 - 35$\times$ at $\epsilon=1$. We also show that learning
parameter-efficient FiLM adapters under DP is competitive with and often
superior to learning just the final classifier layer or learning all of the
network parameters. Finally, we evaluate DP federated learning systems and
establish state-of-the-art performance on the challenging FLAIR benchmark.
- Abstract(参考訳): 最良の非プライベートモデルにアプローチする精度を達成するための差分プライベート(DP)モデルのトレーニングが、近年著しく進歩している。
これらのdpモデルは通常、大きなパブリックデータセットで事前トレーニングされ、その後、比較的大きく、プリトレーニングデータと分布が似ているプライベートなダウンストリームデータセットで微調整される。
しかし、パーソナライゼーションや連合学習など多くのアプリケーションでは、うまく機能することが重要である。
(i) 少ないショット設定では、大量のラベル付きデータの取得が問題となる場合があり得る。
(ii)様々な専門分野のデータセットについて。
少数ショットdpが効果的である条件を理解するために,クラス毎のショット数,プライバシレベル,モデルアーキテクチャ,ダウンストリームデータセット,モデルの学習可能なパラメータのサブセットなどによって,少数ショットdpイメージ分類モデルの攻撃の正確性と脆弱性がどう影響するかを明らかにするため,徹底的な実験を行う。
非プライベートモデルと同等のdp精度を達成するためには,プライバシレベルが最大20~35$\times$で$\epsilon=1$となるため,クラス毎のショットを増加させる必要がある。
また、DP下での学習パラメータ効率のよいFiLMアダプタは、最終分類器層のみの学習やネットワークパラメータの学習よりも優れていることを示す。
最後に,dpフェデレート学習システムを評価し,難解なflairベンチマークで最先端のパフォーマンスを確立する。
関連論文リスト
- Differentially Private Fine-Tuning of Diffusion Models [22.454127503937883]
微分プライバシーと拡散モデル(DM)の統合は、有望だが挑戦的なフロンティアを示している。
この分野での最近の進歩は、公開データによる事前学習によって高品質な合成データを生成する可能性を強調している。
本稿では,プライバシとユーティリティのトレードオフを高めるために,トレーニング可能なパラメータの数を最小限に抑える,プライベート拡散モデルに最適化された戦略を提案する。
論文 参考訳(メタデータ) (2024-06-03T14:18:04Z) - Pre-training Differentially Private Models with Limited Public Data [54.943023722114134]
ディファレンシャルプライバシ(DP)は、モデルに提供されるセキュリティの度合いを測定するための重要な手法である。
DPはまだ、最初の事前訓練段階で使用されるデータのかなりの部分を保護することができない。
公共データの10%しか利用しない新しいDP継続事前学習戦略を開発した。
ImageNet-21kのDP精度は41.5%、非DP精度は55.7%、下流タスクのPlaces365とiNaturalist-2021では60.0%である。
論文 参考訳(メタデータ) (2024-02-28T23:26:27Z) - Differentially Private Diffusion Models [46.46256537222917]
我々は近年の拡散モデル(DM)の成功の上に構築され、微分プライベート拡散モデル(DPDM)を導入している。
DMのトレーニングに適したDP-SGDの強力な修正であるノイズ多重性を提案する。
我々は,新しいDPDMを画像生成ベンチマークで検証し,すべての実験で最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T15:20:47Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Large Language Models Can Be Strong Differentially Private Learners [70.0317718115406]
Differentially Private(DP)学習は、テキストの大規模なディープラーニングモデルを構築する上で、限られた成功を収めている。
この性能低下は,大規模な事前学習モデルを用いることで緩和可能であることを示す。
本稿では,DP-SGDにおけるクリッピングを,サンプルごとの勾配をインスタンス化せずに実行可能にするメモリ節約手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:45:27Z) - An Efficient DP-SGD Mechanism for Large Scale NLP Models [28.180412581994485]
自然言語理解(NLU)モデルを訓練するために使用されるデータは、住所や電話番号などのプライベート情報を含むことができる。
基礎となるモデルは、トレーニングデータに含まれるプライベート情報を公開しないことが望ましい。
プライバシ保護モデルを構築するメカニズムとして,DP-SGD(Fariially Private Gradient Descent)が提案されている。
論文 参考訳(メタデータ) (2021-07-14T15:23:27Z) - DPlis: Boosting Utility of Differentially Private Deep Learning via
Randomized Smoothing [0.0]
DPlis--Differentially Private Learning wIth Smoothingを提案します。
DPlisは,プライバシ予算の下でモデル品質とトレーニングの安定性を効果的に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-02T06:33:14Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。