論文の概要: Differentially Private and Adversarially Robust Machine Learning: An
Empirical Evaluation
- arxiv url: http://arxiv.org/abs/2401.10405v1
- Date: Thu, 18 Jan 2024 22:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 17:19:01.995078
- Title: Differentially Private and Adversarially Robust Machine Learning: An
Empirical Evaluation
- Title(参考訳): 異なるプライベートと敵対的ロバストな機械学習:経験的評価
- Authors: Janvi Thakkar, Giulio Zizzo, Sergio Maffeis
- Abstract要約: 悪意のある敵は、一連の回避攻撃を起動することで、機械学習モデルに攻撃して機密情報を推測したり、システムにダメージを与えたりすることができる。
本研究は,同時攻撃に対する対人訓練と対人訓練の併用について検討した。
- 参考スコア(独自算出の注目度): 2.8084422332394428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Malicious adversaries can attack machine learning models to infer sensitive
information or damage the system by launching a series of evasion attacks.
Although various work addresses privacy and security concerns, they focus on
individual defenses, but in practice, models may undergo simultaneous attacks.
This study explores the combination of adversarial training and differentially
private training to defend against simultaneous attacks. While
differentially-private adversarial training, as presented in DP-Adv,
outperforms the other state-of-the-art methods in performance, it lacks formal
privacy guarantees and empirical validation. Thus, in this work, we benchmark
the performance of this technique using a membership inference attack and
empirically show that the resulting approach is as private as non-robust
private models. This work also highlights the need to explore privacy
guarantees in dynamic training paradigms.
- Abstract(参考訳): 悪意のある敵は、機械学習モデルを攻撃して機密情報を推測したり、一連の回避攻撃を起動することでシステムを傷つけたりすることができる。
様々な作業はプライバシーとセキュリティの懸念に対処するが、個々の防御に焦点を当てるが、実際にはモデルが同時攻撃を受ける可能性がある。
本研究は,同時攻撃から守るために,敵対的訓練と異なる個人的訓練の組み合わせを検討する。
dp-advで示されているように、異なるプライベートな敵のトレーニングは、パフォーマンスにおいて他の最先端の方法よりも優れているが、正式なプライバシー保証や実証的な検証が欠けている。
そこで本研究では,この手法の性能をメンバシップ推論攻撃を用いてベンチマークし,その手法が非ロバストプライベートモデルと同じくらいプライベートであることを実証的に示す。
この作業は、動的トレーニングパラダイムにおけるプライバシー保証の探求の必要性も強調している。
関連論文リスト
- DeMem: Privacy-Enhanced Robust Adversarial Learning via De-Memorization [2.473007680791641]
現実のアプリケーションにおける機械学習モデルの信頼性を保証するためには、敵対的堅牢性が不可欠である。
従来の研究では、敵の訓練による敵の堅牢性の向上は、プライバシ攻撃に対する脆弱性を高めることが示されている。
リスクの高いサンプルを選択的にターゲットとし,プライバシ保護とモデルロバストネスのバランスを向上するDeMemを提案する。
論文 参考訳(メタデータ) (2024-12-08T00:22:58Z) - Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Combining Stochastic Defenses to Resist Gradient Inversion: An Ablation Study [6.766058964358335]
差分プライバシー(DP)やプライバシモジュール(PM)のような一般的な防御メカニズムは、そのような攻撃を防ぐために計算中にランダム性を導入する。
本稿では,この原理を応用し,共通防御機構をバイパスするターゲットGI攻撃について紹介する。
論文 参考訳(メタデータ) (2022-08-09T13:23:29Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Federated Learning in Adversarial Settings [0.8701566919381224]
フェデレートされた学習スキームは、堅牢性、プライバシ、帯域幅効率、モデルの精度の異なるトレードオフを提供します。
この拡張は、厳格なプライバシー要件があっても、プライベートではないがロバストなスキームと同じくらい効率的に機能することを示す。
これは差別化プライバシとロバストネスの基本的なトレードオフの可能性を示している。
論文 参考訳(メタデータ) (2020-10-15T14:57:02Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。