論文の概要: DynaNoise: Dynamic Probabilistic Noise Injection for Defending Against Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2505.13362v1
- Date: Mon, 19 May 2025 17:07:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.759404
- Title: DynaNoise: Dynamic Probabilistic Noise Injection for Defending Against Membership Inference Attacks
- Title(参考訳): Dynanoise: メンバシップ推論攻撃に対する動的確率的ノイズ注入
- Authors: Javad Forough, Hamed Haddadi,
- Abstract要約: 会員推論攻撃(MIA)は、トレーニングデータセットのプライバシーに重大なリスクをもたらす。
従来の緩和技術は、トレーニングや推論中に一定量のノイズを注入することに依存している。
問合せ感度に基づいて動的にノイズ注入を変調する適応型アプローチであるDynaNoiseを提案する。
- 参考スコア(独自算出の注目度): 6.610581923321801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership Inference Attacks (MIAs) pose a significant risk to the privacy of training datasets by exploiting subtle differences in model outputs to determine whether a particular data sample was used during training. These attacks can compromise sensitive information, especially in domains such as healthcare and finance, where data privacy is paramount. Traditional mitigation techniques, such as static differential privacy, rely on injecting a fixed amount of noise during training or inference. However, this approach often leads to a detrimental trade-off: the noise may be insufficient to counter sophisticated attacks or, when increased, may substantially degrade model performance. In this paper, we present DynaNoise, an adaptive approach that dynamically modulates noise injection based on query sensitivity. Our approach performs sensitivity analysis using measures such as Shannon entropy to evaluate the risk associated with each query and adjusts the noise variance accordingly. A probabilistic smoothing step is then applied to renormalize the perturbed outputs, ensuring that the model maintains high accuracy while effectively obfuscating membership signals. We further propose an empirical metric, the Membership Inference Defense Privacy-Utility Tradeoff (MIDPUT), which quantifies the balance between reducing attack success rates and preserving the target model's accuracy. Our extensive evaluation on several benchmark datasets demonstrates that DynaNoise not only significantly reduces MIA success rates but also achieves up to a fourfold improvement in the MIDPUT metric compared to the state-of-the-art. Moreover, DynaNoise maintains competitive model accuracy while imposing only marginal inference overhead, highlighting its potential as an effective and efficient privacy defense against MIAs.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、トレーニング中に特定のデータサンプルが使用されたかどうかを決定するために、モデル出力の微妙な違いを利用することにより、トレーニングデータセットのプライバシに重大なリスクをもたらす。
これらの攻撃は、特にデータプライバシが最重要である医療や金融などの分野において、機密情報を侵害する可能性がある。
静的微分プライバシーのような従来の緩和技術は、トレーニングや推論中に一定量のノイズを注入することに依存している。
しかし、このアプローチは、しばしば有害なトレードオフをもたらす: ノイズは高度な攻撃に対抗するのに不十分であるかもしれないし、増加すると、モデルの性能が著しく低下する可能性がある。
本稿では,クエリの感度に基づいて動的にノイズ注入を変調するDynaNoiseを提案する。
提案手法は,シャノンエントロピー(Shannon entropy)などの尺度を用いた感度解析を行い,各クエリに関連するリスクを評価し,ノイズ分散を調整する。
次に確率的平滑化ステップを適用して、摂動出力を再正規化し、モデルが有効に会員信号を難読化しつつ高い精度を維持する。
さらに,攻撃成功率の低減と目標モデルの精度の維持のバランスを定量化する実証指標であるMIDPUTを提案する。
いくつかのベンチマークデータセットに対する広範な評価は、DynaNoiseがMIAの成功率を著しく低減するだけでなく、最先端と比較して、MIDPUTメトリックの最大4倍の改善を実現していることを示している。
さらに、DynaNoiseは競合モデルの精度を維持しつつ、限界推論オーバーヘッドのみを課し、MIAに対する効果的かつ効率的なプライバシー保護としての可能性を強調している。
関連論文リスト
- MIGA: Mutual Information-Guided Attack on Denoising Models for Semantic Manipulation [39.12448251986432]
深層認知モデルを直接攻撃するためのMIGA(Mutual Information-Guided Attack)を提案する。
MIGAは、敵対的摂動を通じて意味的コンテンツを保存するモデルの能力を戦略的に破壊する。
以上の結果から,デノベーションモデルは必ずしも堅牢ではなく,現実のアプリケーションにセキュリティリスクをもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-10T06:26:34Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Risk-Sensitive Diffusion: Robustly Optimizing Diffusion Models with Noisy Samples [58.68233326265417]
非画像データは実際のアプリケーションで広く使われており、ノイズが多い傾向にある。
リスク感受性SDEは、リスクベクトルによってパラメータ化された微分方程式(SDE)の一種である。
我々はガウス雑音分布と非ガウス雑音分布の両方について系統的研究を行う。
論文 参考訳(メタデータ) (2024-02-03T08:41:51Z) - Adaptive Differential Privacy in Federated Learning: A Priority-Based
Approach [0.0]
フェデレートラーニング(FL)は、ローカルデータセットに直接アクセスせずにグローバルモデルを開発する。
DPはパラメータに一定のノイズを加えることで、プライバシーを保証するフレームワークを提供する。
本稿では,特徴量の相対的重要度に基づいて入射雑音の値を決定するFLの適応雑音付加法を提案する。
論文 参考訳(メタデータ) (2024-01-04T03:01:15Z) - Stable Unlearnable Example: Enhancing the Robustness of Unlearnable
Examples via Stable Error-Minimizing Noise [31.586389548657205]
データにある種の知覚不能ノイズを加えることにより、モデルの一般化性能を著しく低下させる非学習不可能な例を提案する。
本稿では,時間を要する対向的摂動ではなく,ランダムな摂動に対する防御音を訓練する安定型誤り最小化ノイズ(SEM)を導入する。
SEMは、CIFAR-10、CIFAR-100、ImageNet Subset上で、最先端の新たなパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-22T01:43:57Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。