論文の概要: AugMixCloak: A Defense against Membership Inference Attacks via Image Transformation
- arxiv url: http://arxiv.org/abs/2505.07149v1
- Date: Sun, 11 May 2025 23:38:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.225017
- Title: AugMixCloak: A Defense against Membership Inference Attacks via Image Transformation
- Title(参考訳): AugMixCloak:イメージ変換によるメンバーシップ推論攻撃に対する防御
- Authors: Heqing Ren, Chao Feng, Alberto Huertas, Burkhard Stiller,
- Abstract要約: AugMixCloakは、メンバシップ推論攻撃(MIA)に対する機械学習の防御である。
AugMixCloakは、バイナリ分類器ベースのMIAとメトリックベースのMIAの両方に対して、うまく防御する。
正規化ベースの防御と比較すると、AugMixCloakはより強力な保護を示す。
- 参考スコア(独自算出の注目度): 7.754802111308721
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional machine learning (ML) raises serious privacy concerns, while federated learning (FL) mitigates the risk of data leakage by keeping data on local devices. However, the training process of FL can still leak sensitive information, which adversaries may exploit to infer private data. One of the most prominent threats is the membership inference attack (MIA), where the adversary aims to determine whether a particular data record was part of the training set. This paper addresses this problem through a two-stage defense called AugMixCloak. The core idea is to apply data augmentation and principal component analysis (PCA)-based information fusion to query images, which are detected by perceptual hashing (pHash) as either identical to or highly similar to images in the training set. Experimental results show that AugMixCloak successfully defends against both binary classifier-based MIA and metric-based MIA across five datasets and various decentralized FL (DFL) topologies. Compared with regularization-based defenses, AugMixCloak demonstrates stronger protection. Compared with confidence score masking, AugMixCloak exhibits better generalization.
- Abstract(参考訳): 従来の機械学習(ML)は、深刻なプライバシー上の懸念を提起する一方で、フェデレーションドラーニング(FL)は、ローカルデバイスにデータを保持することによって、データ漏洩のリスクを軽減する。
しかし、FLのトレーニングプロセスは機密情報を漏洩し、敵がプライベートデータを推測するために利用する可能性がある。
最も顕著な脅威の1つはメンバーシップ推論攻撃(MIA)であり、敵は特定のデータ記録がトレーニングセットの一部であるかどうかを判断することを目的としている。
本稿では,AugMixCloakと呼ばれる2段階のディフェンスを用いてこの問題に対処する。
中心となる考え方は、クエリ画像にデータ拡張と主成分分析(PCA)に基づく情報融合を適用することである。
実験の結果、AugMixCloakは5つのデータセットと様々な分散FL(DFL)トポロジでバイナリ分類器ベースのMIAとメートル法ベースのMIAの両方を防御することに成功した。
正規化ベースの防御と比較すると、AugMixCloakはより強力な保護を示す。
信頼スコアマスキングと比較すると、AugMixCloakはより良い一般化を示している。
関連論文リスト
- AdaMixup: A Dynamic Defense Framework for Membership Inference Attack Mitigation [3.593261887572616]
メンバーシップ推論攻撃は、ディープラーニングモデルのトレーニングにおいて重要なプライバシー上の懸念として浮上している。
AdaMixupは、モデルのメンバシップ推論攻撃に対する堅牢性を高めるために、適応的なミックスアップ技術を使用している。
論文 参考訳(メタデータ) (2025-01-04T04:21:48Z) - FedMIA: An Effective Membership Inference Attack Exploiting "All for One" Principle in Federated Learning [17.141646895576145]
Federated Learning(FL)は、分散データ上で機械学習モデルをトレーニングするための有望なアプローチである。
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットクライアントのトレーニングセットに属するかどうかを判断することを目的としている。
我々はFedMIAと呼ばれる3段階のメンバーシップ推論攻撃(MIA)手法を導入し、MIAの有効性を高めるため、複数の通信ラウンドにまたがる全クライアントからの更新を平均化する。
論文 参考訳(メタデータ) (2024-02-09T09:58:35Z) - MIA-BAD: An Approach for Enhancing Membership Inference Attack and its
Mitigation with Federated Learning [6.510488168434277]
メンバシップ推論攻撃(MIA)は、機械学習(ML)モデルのプライバシを妥協するための一般的なパラダイムである。
バッチ・ワイズ・アサート・データセット(MIA-BAD)を用いた強化されたメンバーシップ推論攻撃を提案する。
FLを用いたMLモデルのトレーニング方法を示すとともに,提案したMIA-BADアプローチによる脅威をFLアプローチで緩和する方法について検討する。
論文 参考訳(メタデータ) (2023-11-28T06:51:26Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。