論文の概要: Sequential Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2602.16596v1
- Date: Wed, 18 Feb 2026 16:51:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.654227
- Title: Sequential Membership Inference Attacks
- Title(参考訳): 逐次的メンバーシップ推論攻撃
- Authors: Thomas Michel, Debabrota Basu, Emilie Kaufmann,
- Abstract要約: 我々は、モデル更新のシーケンスを使用して、ある更新ステップで挿入されたターゲットの存在を識別する最適なMI攻撃、SeMI*を開発する。
DP-SGDで訓練または微調整されたデータ配信およびモデルを対象とした実験を行い、SeMI*の実用的バリエーションがより厳密なプライバシー監査につながることを示した。
- 参考スコア(独自算出の注目度): 25.00220571748694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern AI models are not static. They go through multiple updates in their lifecycles. Thus, exploiting the model dynamics to create stronger Membership Inference (MI) attacks and tighter privacy audits are timely questions. Though the literature empirically shows that using a sequence of model updates can increase the power of MI attacks, rigorous analysis of the `optimal' MI attacks is limited to static models with infinite samples. Hence, we develop an `optimal' MI attack, SeMI*, that uses the sequence of model updates to identify the presence of a target inserted at a certain update step. For the empirical mean computation, we derive the optimal power of SeMI*, while accessing a finite number of samples with or without privacy. Our results retrieve the existing asymptotic analysis. We observe that having access to the model sequence avoids the dilution of MI signals unlike the existing attacks on the final model, where the MI signal vanishes as training data accumulates. Furthermore, an adversary can use SeMI* to tune both the insertion time and the canary to yield tighter privacy audits. Finally, we conduct experiments across data distributions and models trained or fine-tuned with DP-SGD demonstrating that practical variants of SeMI* lead to tighter privacy audits than the baselines.
- Abstract(参考訳): 現代のAIモデルは静的ではありません。
ライフサイクルでは、複数の更新を経ます。
したがって、モデルダイナミクスを活用してより強力なメンバーシップ推論(MI)攻撃とより厳密なプライバシ監査を発生させることは、タイムリーな問題である。
この文献は、一連のモデル更新を使用することでMI攻撃の威力を高めることを実証的に示すが、'最適'MI攻撃の厳密な分析は無限サンプルを持つ静的モデルに限られる。
そこで我々は,ある更新ステップで挿入されたターゲットの存在を識別するために,モデル更新のシーケンスを利用する'最適'MI攻撃,SeMI*を開発した。
経験的平均計算では、プライバシの有無にかかわらず有限個のサンプルにアクセスしながら、SeMI*の最適パワーを導出する。
以上の結果から既往の漸近解析が得られた。
モデルシーケンスへのアクセスは、トレーニングデータが蓄積されるにつれてMI信号が消滅する最終モデルに対する既存の攻撃とは異なり、MI信号の希釈を回避する。
さらに、相手はSeMI*を使用して挿入時間とカナリアの両方を調整し、より厳しいプライバシー監査を行うことができる。
最後に、DP-SGDで訓練または微調整したデータ配信モデルと実験を行い、SeMI*の実用的バリエーションがベースラインよりも厳密なプライバシー監査につながることを示した。
関連論文リスト
- Spatial Reasoning with Denoising Models [49.83744014336816]
本稿では,連続変数の集合に対する推論を行うためのフレームワークを提案する。
初めて、その生成順序をデノナイジングネットワーク自体によって予測できる。
これらの結果から,特定の推論タスクの精度を1%から50%に向上させることができる。
論文 参考訳(メタデータ) (2025-02-28T14:08:30Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - A Probabilistic Fluctuation based Membership Inference Attack for Diffusion Models [31.06882321425704]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングセットに、モデルをクエリすることでレコードが存在するかどうかを特定する。
PFAMI(Probabilistic Fluctuation Assessing Membership Inference Attack)を提案する。
PFAMIは最高のベースラインと比較して攻撃成功率(ASR)を約27.9%向上させることができる。
論文 参考訳(メタデータ) (2023-08-23T14:00:58Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。