論文の概要: Empirical Comparison of Membership Inference Attacks in Deep Transfer Learning
- arxiv url: http://arxiv.org/abs/2510.05753v2
- Date: Wed, 08 Oct 2025 17:41:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.02893
- Title: Empirical Comparison of Membership Inference Attacks in Deep Transfer Learning
- Title(参考訳): 深層学習におけるメンバーシップ推論攻撃の実証比較
- Authors: Yuxuan Bai, Gauri Pradhan, Marlon Tobaben, Antti Honkela,
- Abstract要約: メンバーシップ推論攻撃(MIA)は、機械学習モデルによるプライバシー漏洩を実証的に推定する。
転送学習における多種多様なMIAの性能を比較し,プライバシリスク評価における最も効率的な攻撃の特定を支援する。
- 参考スコア(独自算出の注目度): 4.877819365490361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the emergence of powerful large-scale foundation models, the training paradigm is increasingly shifting from from-scratch training to transfer learning. This enables high utility training with small, domain-specific datasets typical in sensitive applications. Membership inference attacks (MIAs) provide an empirical estimate of the privacy leakage by machine learning models. Yet, prior assessments of MIAs against models fine-tuned with transfer learning rely on a small subset of possible attacks. We address this by comparing performance of diverse MIAs in transfer learning settings to help practitioners identify the most efficient attacks for privacy risk evaluation. We find that attack efficacy decreases with the increase in training data for score-based MIAs. We find that there is no one MIA which captures all privacy risks in models trained with transfer learning. While the Likelihood Ratio Attack (LiRA) demonstrates superior performance across most experimental scenarios, the Inverse Hessian Attack (IHA) proves to be more effective against models fine-tuned on PatchCamelyon dataset in high data regime.
- Abstract(参考訳): 強力な大規模基盤モデルの出現に伴い、トレーニングパラダイムは、オフスクラッチトレーニングからトランスファーラーニングへと、ますますシフトしている。
これにより、敏感なアプリケーションで典型的な小さなドメイン固有のデータセットによる高ユーティリティトレーニングが可能になる。
メンバーシップ推論攻撃(MIA)は、機械学習モデルによるプライバシー漏洩を実証的に推定する。
しかし、転送学習で微調整されたモデルに対するMIAの事前評価は、攻撃の可能性の小さなサブセットに依存している。
転送学習における多種多様なMIAの性能を比較して,プライバシリスク評価における最も効率的な攻撃の特定を支援する。
スコアベースMIAのトレーニングデータの増加に伴い,攻撃の有効性が低下することが判明した。
転送学習で訓練されたモデルにおいて、すべてのプライバシリスクをキャプチャするMIAは存在しない。
Likelihood Ratio Attack (LiRA)は、ほとんどの実験シナリオで優れたパフォーマンスを示しているが、Inverse Hessian Attack (IHA)は、PatchCamelyonデータセットを高データで微調整したモデルに対して、より効果的であることを証明している。
関連論文リスト
- Hyperparameters in Score-Based Membership Inference Attacks [6.249768559720121]
メンバーシップ推論攻撃(MIA)は、機械学習モデルによるプライバシー漏洩を評価する貴重なフレームワークとして登場した。
本稿では,攻撃者が事前知識を持っていない場合に,MIAのシャドウモデルを訓練するためのハイパーパラメータを選択する手法を提案する。
トレーニングデータを用いたHPOの実行がMIAの脆弱性を増大させるという統計的に有意な証拠は見つからない。
論文 参考訳(メタデータ) (2025-02-10T11:44:46Z) - EM-MIAs: Enhancing Membership Inference Attacks in Large Language Models through Ensemble Modeling [2.494935495983421]
本稿では,XGBoostをベースとしたモデルに既存のMIA技術を統合し,全体的な攻撃性能(EM-MIAs)を向上させる新しいアンサンブル攻撃法を提案する。
実験結果から,アンサンブルモデルではAUC-ROCと精度が,大規模言語モデルやデータセットを対象とする個別攻撃法と比較して有意に向上していることがわかった。
論文 参考訳(メタデータ) (2024-12-23T03:47:54Z) - Low-Cost High-Power Membership Inference Attacks [15.240271537329534]
メンバーシップ推論攻撃は、特定のデータポイントがモデルのトレーニングに使用されたかどうかを検出することを目的としている。
我々は,計算オーバーヘッドの少ない,堅牢なメンバシップ推論攻撃を行うための新しい統計的試験を設計する。
RMIAは、機械学習における実用的かつ正確なデータプライバシーリスク評価の基礎を成している。
論文 参考訳(メタデータ) (2023-12-06T03:18:49Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Practical Membership Inference Attacks Against Large-Scale Multi-Modal
Models: A Pilot Study [17.421886085918608]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングにデータポイントを使用したかどうかを推測することを目的としている。
これらの攻撃は、潜在的なプライバシー上の脆弱性を特定し、個人データの不正使用を検出するために使用できる。
本稿では,大規模マルチモーダルモデルに対する実用的なMIAの開発に向けて第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-09-29T19:38:40Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。