論文の概要: AdaMixup: A Dynamic Defense Framework for Membership Inference Attack Mitigation
- arxiv url: http://arxiv.org/abs/2501.02182v1
- Date: Sat, 04 Jan 2025 04:21:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:08:45.253413
- Title: AdaMixup: A Dynamic Defense Framework for Membership Inference Attack Mitigation
- Title(参考訳): AdaMixup: メンバシップ推論攻撃の動的防御フレームワーク
- Authors: Ying Chen, Jiajing Chen, Yijie Weng, ChiaHua Chang, Dezhi Yu, Guanbiao Lin,
- Abstract要約: メンバーシップ推論攻撃は、ディープラーニングモデルのトレーニングにおいて重要なプライバシー上の懸念として浮上している。
AdaMixupは、モデルのメンバシップ推論攻撃に対する堅牢性を高めるために、適応的なミックスアップ技術を使用している。
- 参考スコア(独自算出の注目度): 3.593261887572616
- License:
- Abstract: Membership inference attacks have emerged as a significant privacy concern in the training of deep learning models, where attackers can infer whether a data point was part of the training set based on the model's outputs. To address this challenge, we propose a novel defense mechanism, AdaMixup. AdaMixup employs adaptive mixup techniques to enhance the model's robustness against membership inference attacks by dynamically adjusting the mixup strategy during training. This method not only improves the model's privacy protection but also maintains high performance. Experimental results across multiple datasets demonstrate that AdaMixup significantly reduces the risk of membership inference attacks while achieving a favorable trade-off between defensive efficiency and model accuracy. This research provides an effective solution for data privacy protection and lays the groundwork for future advancements in mixup training methods.
- Abstract(参考訳): メンバーシップ推論攻撃は、ディープラーニングモデルのトレーニングにおいて重要なプライバシー上の懸念として現れており、攻撃者はモデルの出力に基づいて、データポイントがトレーニングセットの一部であったかどうかを推測することができる。
この課題に対処するため,我々はAdaMixupという新しい防御機構を提案する。
AdaMixupは、トレーニング中にミックスアップ戦略を動的に調整することで、モデルのメンバシップ推論攻撃に対する堅牢性を高めるために、適応的なミックスアップ技術を採用している。
この方法は、モデルのプライバシ保護を改善するだけでなく、高いパフォーマンスを維持する。
複数のデータセットにわたる実験結果から、AdaMixupは防御効率とモデル精度のトレードオフを良好に達成しつつ、メンバシップ推論攻撃のリスクを著しく低減することが示された。
本研究は,データプライバシ保護のための効果的なソリューションを提供し,ミックスアップトレーニング手法の今後の進歩の基盤となる。
関連論文リスト
- Better Membership Inference Privacy Measurement through Discrepancy [25.48677069802298]
本稿では,新たな経験的プライバシ指標を提案する。
我々は,この指標が複数のモデルのトレーニングを伴わず,大規模なイメージネット分類モデルに適用可能であることを示し,より最新で洗練されたトレーニングレシピでトレーニングされたモデルの既存の指標よりも有利であることを示した。
論文 参考訳(メタデータ) (2024-05-24T01:33:22Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Ensembler: Protect Collaborative Inference Privacy from Model Inversion Attack via Selective Ensemble [17.410461161197155]
エンサンブラ(Ensembler)は、敵によるモデル反転攻撃の実施の難しさを高めるために設計されたフレームワークである。
実験により,クライアントがネットワークの1層のみをローカルに保持している場合でも,エンサンブラはリコンストラクション攻撃から入力イメージを効果的に保護できることを示した。
論文 参考訳(メタデータ) (2024-01-19T18:03:21Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - FAT: Federated Adversarial Training [5.287156503763459]
フェデレートラーニング(FL)は、機械学習(ML)におけるプライバシとデータガバナンスの問題に対処する最も重要なパラダイムの1つである。
我々は、トレーニング中のデータのプライバシを保ちながら、推論中の回避の脅威を軽減するために、両方の手法を組み合わせて、連合敵訓練(FAT)への第一歩を踏み出した。
論文 参考訳(メタデータ) (2020-12-03T09:47:47Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - Membership Inference Attacks and Defenses in Classification Models [19.498313593713043]
分類器に対するMI攻撃について検討する。
我々は、MI攻撃に対するモデルの脆弱性が一般化ギャップと密接に関連していることを発見した。
トレーニング精度を意図的に低減し,ギャップを埋めることを目的としたMI攻撃に対する防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T12:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。