論文の概要: Embedding-Space Data Augmentation to Prevent Membership Inference Attacks in Clinical Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2511.05289v1
- Date: Fri, 07 Nov 2025 14:49:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.796976
- Title: Embedding-Space Data Augmentation to Prevent Membership Inference Attacks in Clinical Time Series Forecasting
- Title(参考訳): 臨床時系列予測におけるメンバーシップ推論攻撃防止のための埋め込み空間データ拡張
- Authors: Marius Fracarolli, Michael Staniek, Stefan Riezler,
- Abstract要約: 我々は、データ拡張がTSFモデルにおけるメンバーシップ推論攻撃(MIA)を緩和する方法について述べる。
主な課題は、攻撃者を混乱させるために、元のトレーニングデータによく似た合成サンプルを生成することである。
実験の結果,ZOO-PCAは試験データの性能を犠牲にすることなく,MIA攻撃に対するTPR/FPR比を最大に低下させることがわかった。
- 参考スコア(独自算出の注目度): 6.217506701223212
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Balancing strong privacy guarantees with high predictive performance is critical for time series forecasting (TSF) tasks involving Electronic Health Records (EHR). In this study, we explore how data augmentation can mitigate Membership Inference Attacks (MIA) on TSF models. We show that retraining with synthetic data can substantially reduce the effectiveness of loss-based MIAs by reducing the attacker's true-positive to false-positive ratio. The key challenge is generating synthetic samples that closely resemble the original training data to confuse the attacker, while also introducing enough novelty to enhance the model's ability to generalize to unseen data. We examine multiple augmentation strategies - Zeroth-Order Optimization (ZOO), a variant of ZOO constrained by Principal Component Analysis (ZOO-PCA), and MixUp - to strengthen model resilience without sacrificing accuracy. Our experimental results show that ZOO-PCA yields the best reductions in TPR/FPR ratio for MIA attacks without sacrificing performance on test data.
- Abstract(参考訳): 強いプライバシー保証と高い予測性能のバランスをとることは、Electronic Health Records(EHR)を含む時系列予測(TSF)タスクにおいて重要である。
本研究では,データ拡張がTSFモデル上でのMIA(Commanship Inference Attacks)を緩和する方法について検討する。
合成データによる再訓練は,攻撃者の真陽性と偽陽性の比率を減少させることで,損失に基づくMIAの有効性を著しく低下させることができることを示す。
鍵となる課題は、攻撃者を混乱させるために元のトレーニングデータによく似た合成サンプルを生成すると同時に、目に見えないデータに一般化する能力を高めるのに十分な斬新さを導入することである。
主成分分析(ZOO-PCA)によって制約されたZOOの変形であるゼロ階最適化(ZOO)と、精度を犠牲にすることなくモデルレジリエンスを強化するMixUpの2つの拡張戦略について検討する。
実験結果から,ZOO-PCAはMIA攻撃に対するTPR/FPR比を最も低下させるが,試験データの性能は低下しないことがわかった。
関連論文リスト
- Adaptive Defense against Harmful Fine-Tuning for Large Language Models via Bayesian Data Scheduler [67.24175911858312]
有害な微調整は、大規模な言語モデルのための微調整・アズ・ア・サービスに重大な安全性のリスクをもたらす。
Bayesian Data Scheduler (BDS) は、アタックシミュレーションを必要としない適応型チューニングステージ防衛戦略である。
BDSは、微調整データセットとアライメントデータセットに基づいて、各データポイントの安全属性の後方分布を学習する。
論文 参考訳(メタデータ) (2025-10-31T04:49:37Z) - Empirical Comparison of Membership Inference Attacks in Deep Transfer Learning [4.877819365490361]
メンバーシップ推論攻撃(MIA)は、機械学習モデルによるプライバシー漏洩を実証的に推定する。
転送学習における多種多様なMIAの性能を比較し,プライバシリスク評価における最も効率的な攻撃の特定を支援する。
論文 参考訳(メタデータ) (2025-10-07T10:21:05Z) - Privacy Auditing Synthetic Data Release through Local Likelihood Attacks [7.780592134085148]
遺伝子様比攻撃(Gen-LRA)
Gen-LRAは、サロゲートモデルによる合成データに対する局所確率比の推定において、テスト観測が与える影響を評価して攻撃を定式化する。
その結果、Gen-LRAは、合成データのリリースのためのプライバシ監査ツールとしての有効性を裏付けている。
論文 参考訳(メタデータ) (2025-08-28T18:27:40Z) - Unveiling Impact of Frequency Components on Membership Inference Attacks for Diffusion Models [51.179816451161635]
メンバーシップ推論アタック(MIA)は、モデルのトレーニングフェーズで特定のデータが使用されたかどうかを確認するように設計されている。
我々はそれらを、会員識別のための会員スコアを計算する統一的な汎用パラダイムに定式化する。
このパラダイムの下では、拡散モデルが高周波情報を処理する方法において、既存の攻撃が固有の欠陥を見落としていることを実証的に見出す。
本稿では, プラグアンドプレイ方式の高周波フィルタモジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T09:50:11Z) - Winning the MIDST Challenge: New Membership Inference Attacks on Diffusion Models for Tabular Data Synthesis [10.682673935815547]
既存のプライバシー評価は、しばしばメトリクスや弱いメンバーシップ推論攻撃(MIA)に依存している。
本研究では,拡散に基づく合成に関する厳密なMIA研究を行い,画像モデル用に設計された最先端の攻撃がこの環境で失敗することを明らかにする。
本手法は,ライトウェイト駆動方式で実装され,手動最適化の必要性をなくし,メンバーシップシグナルを効果的に学習する。
論文 参考訳(メタデータ) (2025-03-15T06:13:27Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Low-Cost High-Power Membership Inference Attacks [15.240271537329534]
メンバーシップ推論攻撃は、特定のデータポイントがモデルのトレーニングに使用されたかどうかを検出することを目的としている。
我々は,計算オーバーヘッドの少ない,堅牢なメンバシップ推論攻撃を行うための新しい統計的試験を設計する。
RMIAは、機械学習における実用的かつ正確なデータプライバシーリスク評価の基礎を成している。
論文 参考訳(メタデータ) (2023-12-06T03:18:49Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。