論文の概要: Dual-Model Defense: Safeguarding Diffusion Models from Membership Inference Attacks through Disjoint Data Splitting
- arxiv url: http://arxiv.org/abs/2410.16657v1
- Date: Tue, 22 Oct 2024 03:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:29:50.820346
- Title: Dual-Model Defense: Safeguarding Diffusion Models from Membership Inference Attacks through Disjoint Data Splitting
- Title(参考訳): Dual-Model Defense: 解離データ分割によるメンバーシップ推論攻撃からの拡散モデルの保護
- Authors: Bao Q. Tran, Viet Nguyen, Anh Tran, Toan Tran,
- Abstract要約: 拡散モデルは、メンバーシップ推論攻撃(MIA)に弱いことが証明されている。
本稿では,MIAに対して拡散モデルを保護するための新しい2つのアプローチを提案する。
- 参考スコア(独自算出の注目度): 6.984396318800444
- License:
- Abstract: Diffusion models have demonstrated remarkable capabilities in image synthesis, but their recently proven vulnerability to Membership Inference Attacks (MIAs) poses a critical privacy concern. This paper introduces two novel and efficient approaches (DualMD and DistillMD) to protect diffusion models against MIAs while maintaining high utility. Both methods are based on training two separate diffusion models on disjoint subsets of the original dataset. DualMD then employs a private inference pipeline that utilizes both models. This strategy significantly reduces the risk of black-box MIAs by limiting the information any single model contains about individual training samples. The dual models can also generate "soft targets" to train a private student model in DistillMD, enhancing privacy guarantees against all types of MIAs. Extensive evaluations of DualMD and DistillMD against state-of-the-art MIAs across various datasets in white-box and black-box settings demonstrate their effectiveness in substantially reducing MIA success rates while preserving competitive image generation performance. Notably, our experiments reveal that DistillMD not only defends against MIAs but also mitigates model memorization, indicating that both vulnerabilities stem from overfitting and can be addressed simultaneously with our unified approach.
- Abstract(参考訳): 拡散モデルは画像合成において顕著な能力を示しているが、最近証明されたメンバーシップ推論攻撃(MIA)に対する脆弱性は、重要なプライバシー上の懸念を引き起こす。
本稿では,MIA に対する拡散モデル保護のための新しい2つのアプローチ (DualMD と DistillMD) を提案する。
どちらの手法も、元のデータセットの解離部分集合上で2つの別々の拡散モデルを訓練することに基づいている。
次に、DualMDは両方のモデルを利用するプライベート推論パイプラインを使用する。
この戦略は、個々のトレーニングサンプルについて、単一のモデルが含む情報を制限することにより、ブラックボックスMIAのリスクを著しく低減する。
デュアルモデルは、DistillMDでプライベート学生モデルをトレーニングするために"ソフトターゲット"を生成することができ、あらゆる種類のMIAに対するプライバシー保証を強化する。
ホワイトボックスおよびブラックボックス設定の様々なデータセットにおける最先端MIAに対するDualMDとDistillMDの広範囲な評価は、競合画像生成性能を維持しながらMIAの成功率を大幅に低下させる効果を示した。
実験の結果, DistillMDはMIAを防御するだけでなく, モデル記憶の軽減にも寄与し, 両脆弱性とも過度に適合し, 統一アプローチと同時に対処できることが示唆された。
関連論文リスト
- Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデルアタック(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Robust Training of Federated Models with Extremely Label Deficiency [84.00832527512148]
フェデレーション半教師付き学習(FSSL)は、ラベル不足を伴う分散データを用いて機械学習モデルを協調訓練するための強力なパラダイムとして登場した。
我々は,ラベル付きおよびラベルなしデータの異なる視点から洞察を提供することにより相互指導を強化するために,ツインサイトと呼ばれる新しいツインモデルパラダイムを提案する。
4つのベンチマークデータセットに関する包括的な実験は、Twin-sightが様々な実験環境において最先端の手法を著しく上回っていることを示す重要な証拠となる。
論文 参考訳(メタデータ) (2024-02-22T10:19:34Z) - Evaluating Membership Inference Attacks and Defenses in Federated
Learning [23.080346952364884]
会員推論攻撃(MIA)は、連合学習におけるプライバシー保護への脅威を増大させる。
本稿では,既存のMIAと対応する防衛戦略の評価を行う。
論文 参考訳(メタデータ) (2024-02-09T09:58:35Z) - Privacy Threats in Stable Diffusion Models [0.7366405857677227]
本稿では,安定拡散コンピュータビジョンモデルを対象としたMIA(Message Inference attack)の新たなアプローチを提案する。
MIAは、モデルのトレーニングデータに関する機密情報を抽出することを目的としており、重要なプライバシー上の懸念を呈している。
被害者モデルに繰り返し問い合わせるだけでよいブラックボックスMIAを考案する。
論文 参考訳(メタデータ) (2023-11-15T20:31:40Z) - Model Inversion Attack via Dynamic Memory Learning [41.742953947551364]
Model Inversion (MI)攻撃は、ターゲットモデルからプライベートトレーニングデータを復元することを目的としている。
生成的敵モデルにおける近年の進歩は、特にMI攻撃に有効である。
本稿では、歴史的知識を活用するために、新しい動的メモリモデル反転攻撃(DMMIA)を提案する。
論文 参考訳(メタデータ) (2023-08-24T02:32:59Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - An Efficient Membership Inference Attack for the Diffusion Model by
Proximal Initialization [58.88327181933151]
本稿では,効率的なクエリベースのメンバシップ推論攻撃(MIA)を提案する。
実験結果から,提案手法は離散時間と連続時間の両方の拡散モデル上で,2つのクエリで競合性能を達成できることが示唆された。
我々の知る限り、本研究はテキスト音声タスクにおけるMIAへの拡散モデルのロバスト性について初めて研究するものである。
論文 参考訳(メタデータ) (2023-05-26T16:38:48Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。