論文の概要: Apollo: A Posteriori Label-Only Membership Inference Attack Towards Machine Unlearning
- arxiv url: http://arxiv.org/abs/2506.09923v1
- Date: Wed, 11 Jun 2025 16:43:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.134637
- Title: Apollo: A Posteriori Label-Only Membership Inference Attack Towards Machine Unlearning
- Title(参考訳): Apollo: ポストエリオリーラベルのみのメンバシップ推論が機械学習を狙う
- Authors: Liou Tang, James Joshi, Ashish Kundu,
- Abstract要約: 我々は、厳密な脅威モデルに従って、データサンプルが未学習であるかどうかを推測する新しいプライバシ攻撃を提案する。
提案攻撃は,従来の攻撃に比べてターゲットモデルへのアクセスを少なくするが,未学習サンプルの登録状況は比較的精度が高い。
- 参考スコア(独自算出の注目度): 0.6117371161379209
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine Unlearning (MU) aims to update Machine Learning (ML) models following requests to remove training samples and their influences on a trained model efficiently without retraining the original ML model from scratch. While MU itself has been employed to provide privacy protection and regulatory compliance, it can also increase the attack surface of the model. Existing privacy inference attacks towards MU that aim to infer properties of the unlearned set rely on the weaker threat model that assumes the attacker has access to both the unlearned model and the original model, limiting their feasibility toward real-life scenarios. We propose a novel privacy attack, A Posteriori Label-Only Membership Inference Attack towards MU, Apollo, that infers whether a data sample has been unlearned, following a strict threat model where an adversary has access to the label-output of the unlearned model only. We demonstrate that our proposed attack, while requiring less access to the target model compared to previous attacks, can achieve relatively high precision on the membership status of the unlearned samples.
- Abstract(参考訳): Machine Unlearning(MU)は、トレーニングサンプルとそのトレーニングモデルへの影響を、オリジナルのMLモデルをスクラッチから再トレーニングすることなく効率的に除去する要求に従って、マシンラーニング(ML)モデルを更新することを目的としている。
MU自体は、プライバシ保護と規制コンプライアンスを提供するために使用されているが、モデルの攻撃面を増加させることもできる。
既存のMUに対するプライバシ推論攻撃は、未学習のセットのプロパティを推論することを目的としており、攻撃者が未学習のモデルとオリジナルのモデルの両方にアクセスでき、実際のシナリオに対する可能性を制限するというより弱い脅威モデルに依存している。
A Posteriori Label-Only Membership Inference Attack to MU, Apollo, which is proposed a novel privacy attack, A Posteriori Label-Only Membership Inference Attack to MU, Apollo, which is infers that a data sample was unlearned, after a strict threat model that a adversary have access to the label-output of the unlearned model only。
提案した攻撃は,従来の攻撃に比べてターゲットモデルへのアクセスを少なくするが,未学習サンプルの登録状況の比較的高い精度を達成できることを実証する。
関連論文リスト
- A Method to Facilitate Membership Inference Attacks in Deep Learning Models [5.724311218570013]
我々は,従来の技術よりも厳格に強力な新たな会員推論攻撃を実演する。
私たちの攻撃は、敵がすべてのトレーニングサンプルを確実に識別する権限を与えます。
これらのモデルは、共通の会員プライバシー監査の下で、増幅された会員リークを効果的に偽装できることを示す。
論文 参考訳(メタデータ) (2024-07-02T03:33:42Z) - SnatchML: Hijacking ML models without Training Access [5.005171792255858]
我々は、敵が被害者モデルの訓練段階にアクセスできない、推論ハイジャック時の攻撃に対する強力な脅威モデルを考える。
我々は、新しいトレーニングフリーモデルハイジャック攻撃であるSnatchMLを提案する。
AWS Sagemakerにデプロイされたモデルに関する我々の結果は、SnatchMLがハイジャックタスクに対して高い精度を提供できることを示した。
論文 参考訳(メタデータ) (2024-06-03T18:04:37Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Membership Inference Attacks on Diffusion Models via Quantile Regression [30.30033625685376]
我々は,家族関係推論(MI)攻撃による拡散モデルのプライバシー上の脆弱性を実証する。
提案したMI攻撃は、トレーニングに使用されていない例における再構成損失の分布を予測(定量化)する量子レグレッションモデルを学習する。
我々の攻撃は従来の最先端攻撃よりも優れており、計算コストは著しく低い。
論文 参考訳(メタデータ) (2023-12-08T16:21:24Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Unstoppable Attack: Label-Only Model Inversion via Conditional Diffusion
Model [14.834360664780709]
モデルアタック(MIA)は、深層学習モデルの到達不可能なトレーニングセットからプライベートデータを復元することを目的としている。
そこで本研究では,条件拡散モデル(CDM)を応用したMIA手法を開発し,対象ラベル下でのサンプルの回収を行う。
実験結果から,本手法は従来手法よりも高い精度で類似したサンプルをターゲットラベルに生成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-17T12:14:24Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。