論文の概要: Defending Diffusion Models Against Membership Inference Attacks via Higher-Order Langevin Dynamics
- arxiv url: http://arxiv.org/abs/2509.14225v1
- Date: Wed, 17 Sep 2025 17:56:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.94961
- Title: Defending Diffusion Models Against Membership Inference Attacks via Higher-Order Langevin Dynamics
- Title(参考訳): 高次ランゲヴィンダイナミクスによるメンバーシップ推論攻撃に対する拡散モデル
- Authors: Benjamin Sterling, Yousef El-Laham, Mónica F. Bugallo,
- Abstract要約: 生成人工知能アプリケーションの最近の進歩は、新しいデータセキュリティの懸念を提起している。
本稿では,メンバーシップ推論攻撃に対する拡散モデルを守ることに焦点を当てる。
補助変数の存在は、拡散過程の早い段階で機密入力データを破損させるのに役立つ外部ランダムネスを混合する。
- 参考スコア(独自算出の注目度): 13.233912945783686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative artificial intelligence applications have raised new data security concerns. This paper focuses on defending diffusion models against membership inference attacks. This type of attack occurs when the attacker can determine if a certain data point was used to train the model. Although diffusion models are intrinsically more resistant to membership inference attacks than other generative models, they are still susceptible. The defense proposed here utilizes critically-damped higher-order Langevin dynamics, which introduces several auxiliary variables and a joint diffusion process along these variables. The idea is that the presence of auxiliary variables mixes external randomness that helps to corrupt sensitive input data earlier on in the diffusion process. This concept is theoretically investigated and validated on a toy dataset and a speech dataset using the Area Under the Receiver Operating Characteristic (AUROC) curves and the FID metric.
- Abstract(参考訳): 生成人工知能アプリケーションの最近の進歩は、新しいデータセキュリティの懸念を提起している。
本稿では,メンバーシップ推論攻撃に対する拡散モデルを守ることに焦点を当てる。
このような攻撃は、攻撃者が特定のデータポイントを使用してモデルをトレーニングしたかどうかを判断できる場合に発生する。
拡散モデルは、他の生成モデルよりも本質的にはメンバーシップ推論攻撃に耐性があるが、それでも影響を受けやすい。
ここで提案されたディフェンスは、いくつかの補助変数を導入し、これらの変数に沿った共同拡散過程を導入する、臨界損傷の高い高次ランゲヴィン力学を利用する。
補助変数の存在は、拡散過程の早い段階で機密入力データを破損させるのに役立つ外部ランダムネスを混合する。
この概念は,AUROC曲線とFID測定値を用いて,おもちゃのデータセットと音声データセットを用いて理論的に検証・検証する。
関連論文リスト
- Towards Model Resistant to Transferable Adversarial Examples via Trigger Activation [95.3977252782181]
知覚不能な摂動によって特徴づけられる敵対的な例は、彼らの予測を誤解させることで、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では,移動可能な敵例(TAE)に対して,より効率的かつ効果的に堅牢性を高めることを目的とした,新たなトレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-04-20T09:07:10Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Struggle with Adversarial Defense? Try Diffusion [8.274506117450628]
アドリア攻撃は微妙な摂動を導入して誤分類を引き起こす。
拡散に基づく敵の訓練は、しばしば収束の課題と高い計算費用に遭遇する。
本稿では,これらの問題を克服するために,真性最大化拡散(TMDC)を提案する。
論文 参考訳(メタデータ) (2024-04-12T06:52:40Z) - Leveraging Diffusion-Based Image Variations for Robust Training on
Poisoned Data [26.551317580666353]
バックドア攻撃は、ニューラルネットワークをトレーニングする上で深刻なセキュリティ上の脅威となる。
本稿では,近年の拡散モデルのパワーを生かして,潜在的に有毒なデータセットのモデルトレーニングを可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-10T07:25:06Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Membership Inference Attacks against Diffusion Models [0.0]
拡散モデルは近年、革新的な生成モデルとして注目されている。
本研究では,拡散モデルがメンバシップ推論攻撃に耐性があるかどうかを検討する。
論文 参考訳(メタデータ) (2023-02-07T05:20:20Z) - How to Backdoor Diffusion Models? [74.43215520371506]
本稿では,バックドア攻撃に対する拡散モデルの堅牢性に関する最初の研究について述べる。
我々は,バックドアインプラントのモデルトレーニング中に拡散過程を侵害する新たな攻撃フレームワークであるBadDiffusionを提案する。
本研究の結果は,拡散モデルの誤用や潜在的なリスクへの注意を呼び起こす。
論文 参考訳(メタデータ) (2022-12-11T03:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。