論文の概要: Differentially Private and Adversarially Robust Machine Learning: An
Empirical Evaluation
- arxiv url: http://arxiv.org/abs/2401.10405v1
- Date: Thu, 18 Jan 2024 22:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 17:19:01.995078
- Title: Differentially Private and Adversarially Robust Machine Learning: An
Empirical Evaluation
- Title(参考訳): 異なるプライベートと敵対的ロバストな機械学習:経験的評価
- Authors: Janvi Thakkar, Giulio Zizzo, Sergio Maffeis
- Abstract要約: 悪意のある敵は、一連の回避攻撃を起動することで、機械学習モデルに攻撃して機密情報を推測したり、システムにダメージを与えたりすることができる。
本研究は,同時攻撃に対する対人訓練と対人訓練の併用について検討した。
- 参考スコア(独自算出の注目度): 2.8084422332394428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Malicious adversaries can attack machine learning models to infer sensitive
information or damage the system by launching a series of evasion attacks.
Although various work addresses privacy and security concerns, they focus on
individual defenses, but in practice, models may undergo simultaneous attacks.
This study explores the combination of adversarial training and differentially
private training to defend against simultaneous attacks. While
differentially-private adversarial training, as presented in DP-Adv,
outperforms the other state-of-the-art methods in performance, it lacks formal
privacy guarantees and empirical validation. Thus, in this work, we benchmark
the performance of this technique using a membership inference attack and
empirically show that the resulting approach is as private as non-robust
private models. This work also highlights the need to explore privacy
guarantees in dynamic training paradigms.
- Abstract(参考訳): 悪意のある敵は、機械学習モデルを攻撃して機密情報を推測したり、一連の回避攻撃を起動することでシステムを傷つけたりすることができる。
様々な作業はプライバシーとセキュリティの懸念に対処するが、個々の防御に焦点を当てるが、実際にはモデルが同時攻撃を受ける可能性がある。
本研究は,同時攻撃から守るために,敵対的訓練と異なる個人的訓練の組み合わせを検討する。
dp-advで示されているように、異なるプライベートな敵のトレーニングは、パフォーマンスにおいて他の最先端の方法よりも優れているが、正式なプライバシー保証や実証的な検証が欠けている。
そこで本研究では,この手法の性能をメンバシップ推論攻撃を用いてベンチマークし,その手法が非ロバストプライベートモデルと同じくらいプライベートであることを実証的に示す。
この作業は、動的トレーニングパラダイムにおけるプライバシー保証の探求の必要性も強調している。
関連論文リスト
- Diffence: Fencing Membership Privacy With Diffusion Models [16.447035745151428]
生成モデルを活用することによって,メンバシップ攻撃に対する新たな枠組みを導入する。
当社のアプローチは,モデルユーティリティを損なうことなく,メンバシップのプライバシを高める,堅牢なプラグインプレイ防御機構として機能する。
論文 参考訳(メタデータ) (2023-12-07T20:45:09Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - One Parameter Defense -- Defending against Data Inference Attacks via
Differential Privacy [26.000487178636927]
機械学習モデルは、メンバシップ推論やモデル反転攻撃のようなデータ推論攻撃に弱い。
既存の防衛方法は、メンバーシップ推論攻撃からのみ保護する。
両攻撃を時間効率で処理する差分プライベートディフェンス法を提案する。
論文 参考訳(メタデータ) (2022-03-13T06:06:24Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Federated Learning in Adversarial Settings [0.8701566919381224]
フェデレートされた学習スキームは、堅牢性、プライバシ、帯域幅効率、モデルの精度の異なるトレードオフを提供します。
この拡張は、厳格なプライバシー要件があっても、プライベートではないがロバストなスキームと同じくらい効率的に機能することを示す。
これは差別化プライバシとロバストネスの基本的なトレードオフの可能性を示している。
論文 参考訳(メタデータ) (2020-10-15T14:57:02Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Single-step Adversarial training with Dropout Scheduling [59.50324605982158]
単段階逆行訓練法を用いて学習したモデルは、単段階逆行の発生を防止するために学習する。
提案手法を用いて訓練されたモデルは, 単段階攻撃と多段階攻撃の両方に対して堅牢である。
論文 参考訳(メタデータ) (2020-04-18T14:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。