論文の概要: Augment then Smooth: Reconciling Differential Privacy with Certified
Robustness
- arxiv url: http://arxiv.org/abs/2306.08656v1
- Date: Wed, 14 Jun 2023 17:52:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 17:49:29.272165
- Title: Augment then Smooth: Reconciling Differential Privacy with Certified
Robustness
- Title(参考訳): Augment then Smooth: 認証されたロバスト性で差別的プライバシを再定義する
- Authors: Jiapeng Wu, Atiyeh Ashari Ghomi, David Glukhov, Jesse C. Cresswell,
Franziska Boenisch, Nicolas Papernot
- Abstract要約: プライバシー保証と認証された堅牢性の両方を同時に達成することは可能であると我々は主張する。
我々はDP-CERTと呼ばれるフレームワークを、ランダムなスムース化によって、個別にプライベートなモデルトレーニングに統合する。
- 参考スコア(独自算出の注目度): 21.641362811887817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are susceptible to a variety of attacks that can
erode trust in their deployment. These threats include attacks against the
privacy of training data and adversarial examples that jeopardize model
accuracy. Differential privacy and randomized smoothing are effective defenses
that provide certifiable guarantees for each of these threats, however, it is
not well understood how implementing either defense impacts the other. In this
work, we argue that it is possible to achieve both privacy guarantees and
certified robustness simultaneously. We provide a framework called DP-CERT for
integrating certified robustness through randomized smoothing into
differentially private model training. For instance, compared to differentially
private stochastic gradient descent on CIFAR10, DP-CERT leads to a 12-fold
increase in certified accuracy and a 10-fold increase in the average certified
radius at the expense of a drop in accuracy of 1.2%. Through in-depth
per-sample metric analysis, we show that the certified radius correlates with
the local Lipschitz constant and smoothness of the loss surface. This provides
a new way to diagnose when private models will fail to be robust.
- Abstract(参考訳): マシンラーニングモデルは、デプロイに対する信頼を損なう可能性のあるさまざまな攻撃に影響を受けやすい。
これらの脅威には、トレーニングデータのプライバシーに対する攻撃や、モデルの精度を脅かす敵の例が含まれる。
ディファレンシャルプライバシとランダム化平滑化は、これらの脅威のそれぞれに対して証明可能な保証を提供する効果的な防御であるが、どちらの防御も他の脅威にどのように影響するかはよく分かっていない。
本研究では,プライバシー保証と認証された堅牢性の両方を同時に達成できることを論じる。
我々は,ランダム化平滑化による認定ロバストネスを差分プライベートモデルトレーニングに統合するdp-certと呼ばれるフレームワークを提供する。
例えば、DP-CERTは、CIFAR10上の個人確率勾配勾配よりも12倍の精度向上と平均認定半径の10倍の精度向上を達成し、精度の1.2%の低下を犠牲にしている。
試料ごとの距離解析により, 認定半径は局所リプシッツ定数と損失面の滑らかさに相関することを示した。
これにより、プライベートモデルが堅牢でない場合に新たな診断方法が提供される。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Towards Certified Probabilistic Robustness with High Accuracy [3.957941698534126]
Adrialの例は、ニューラルネットワーク上に構築された多くのクリティカルシステムに対して、セキュリティ上の脅威となる。
確実に堅牢で正確なニューラルネットワークモデルを構築する方法はまだオープンな問題だ。
本稿では,高い精度と高い確率ロバスト性を実現することを目的とした新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-02T09:39:47Z) - Securing Distributed SGD against Gradient Leakage Threats [13.979995939926154]
本稿では, 勾配漏れ弾性分布勾配Descent (SGD) に対する総合的アプローチを提案する。
プライバシー強化型フェデレーション学習の2つの方法として, (i) ランダム選択や低ランクフィルタリングによるグラデーションプルーニング, (ii) 付加的ランダムノイズや差分プライバシーノイズによる勾配摂動について分析した。
本稿では,分散SGDをフェデレート学習において確保するための勾配リーク耐性手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T21:39:27Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Accuracy, Interpretability, and Differential Privacy via Explainable
Boosting [22.30100748652558]
我々は、EBM(Explainable Boosting Machines)に差分プライバシーを追加することで、プライバシーを保護しながら最先端の精度が得られることを示す。
複数分類および回帰データセットを用いた実験により,DP-EBMモデルでは,強い差分プライバシー保証を伴っても驚くほど精度の低下がみられた。
論文 参考訳(メタデータ) (2021-06-17T17:33:00Z) - Data Dependent Randomized Smoothing [127.34833801660233]
データ依存フレームワークは、3つのランダムな平滑化アプローチにシームレスに組み込むことができます。
CIFAR10とImageNetで0.5の半径の最強ベースラインの認定精度よりも9%と6%の改善が得られています。
論文 参考訳(メタデータ) (2020-12-08T10:53:11Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。