論文の概要: Teleportation-Based Defenses for Privacy in Approximate Machine Unlearning
- arxiv url: http://arxiv.org/abs/2512.00272v1
- Date: Sat, 29 Nov 2025 01:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.143293
- Title: Teleportation-Based Defenses for Privacy in Approximate Machine Unlearning
- Title(参考訳): 近似機械学習におけるテレポーテーションに基づくプライバシ保護
- Authors: Mohammad M Maheri, Xavier Cadet, Peter Chin, Hamed Haddadi,
- Abstract要約: 近似マシンアンラーニングは、訓練されたモデルから特定のデータポイントの影響を効率的に除去することを目的としている。
事前学習モデルと後学習モデルにアクセスできる敵は、メンバーシップ推論やデータ再構成に彼らの違いを利用することができる。
これらの脆弱性は2つの要因から生じることが示される: 忘れられたサンプルの大きな勾配ノルムと、未学習パラメータが元のモデルに近づいたこと。
- 参考スコア(独自算出の注目度): 8.735490611482364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approximate machine unlearning aims to efficiently remove the influence of specific data points from a trained model, offering a practical alternative to full retraining. However, it introduces privacy risks: an adversary with access to pre- and post-unlearning models can exploit their differences for membership inference or data reconstruction. We show these vulnerabilities arise from two factors: large gradient norms of forget-set samples and the close proximity of unlearned parameters to the original model. To demonstrate their severity, we propose unlearning-specific membership inference and reconstruction attacks, showing that several state-of-the-art methods (e.g., NGP, SCRUB) remain vulnerable. To mitigate this leakage, we introduce WARP, a plug-and-play teleportation defense that leverages neural network symmetries to reduce forget-set gradient energy and increase parameter dispersion while preserving predictions. This reparameterization obfuscates the signal of forgotten data, making it harder for attackers to distinguish forgotten samples from non-members or recover them via reconstruction. Across six unlearning algorithms, our approach achieves consistent privacy gains, reducing adversarial advantage (AUC) by up to 64% in black-box and 92% in white-box settings, while maintaining accuracy on retained data. These results highlight teleportation as a general tool for reducing attack success in approximate unlearning.
- Abstract(参考訳): Approximate Machine Unlearningは、トレーニングされたモデルから特定のデータポイントの影響を効率的に除去することを目的としており、フルリトレーニングの実用的な代替手段を提供する。
しかし、プライバシのリスクが伴う。事前学習モデルと後学習モデルにアクセスできる敵は、メンバーシップ推論やデータ再構成に彼らの違いを利用することができる。
これらの脆弱性は2つの要因から生じることが示される: 忘れられたサンプルの大きな勾配ノルムと、未学習パラメータが元のモデルに近づいたこと。
それらの重症度を示すために,未学習の会員推論と再構築攻撃を提案し,現状の手法(例えば,NGP,SCRUB)が脆弱であることを示した。
このリークを緩和するため,我々は,ニューラルネットワークの対称性を活用するプラグアンドプレイ型テレポーテーションディフェンスであるWARPを導入する。
この再パラメータ化は、忘れたデータの信号を難なくし、アタッカーが忘れたサンプルを非メンバーと区別したり、復元したりすることを難しくする。
6つの未学習アルゴリズムにまたがって、我々のアプローチは一貫したプライバシー向上を実現し、ブラックボックスでは最大64%、ホワイトボックスでは最大92%の敵の優位性(AUC)を低減し、保持されたデータの正確性を維持できる。
これらの結果は、ほぼ未学習の攻撃成功を減らすための一般的なツールとしてテレポーテーションを強調している。
関連論文リスト
- Reminiscence Attack on Residuals: Exploiting Approximate Machine Unlearning for Privacy [18.219835803238837]
非学習アルゴリズムは、未学習データのプライバシーを適切に保護できないことを示す。
本稿では,残余と会員のプライバシーの相関を増幅するReminiscence Attack (ReA)を提案する。
我々は,まず深層無学習データトレースを除去し,収束安定性を強制する二相近似学習フレームワークを開発した。
論文 参考訳(メタデータ) (2025-07-28T07:12:12Z) - CRFU: Compressive Representation Forgetting Against Privacy Leakage on Machine Unlearning [14.061404670832097]
効果的なアンラーニング方法は、訓練されたモデルから指定されたデータの情報を除去し、アンラーニングの前後で同じ入力に対して異なる出力を出力する。
本研究では,非学習者のプライバシー漏洩を防ぐためにCRFU(Compressive Representation Forgetting Unlearning scheme)を導入する。
論文 参考訳(メタデータ) (2025-02-27T05:59:02Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Accurate Forgetting for All-in-One Image Restoration Model [3.367455972998532]
現在、Machine Unlearningと呼ばれる低価格のスキームは、モデルに記憶されているプライベートデータを忘れている。
このことから,画像復元とセキュリティのギャップを埋めるために,この概念を応用しようと試みている。
論文 参考訳(メタデータ) (2024-09-01T10:14:16Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning [31.374376311614675]
グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル勾配からのトレーニングサンプルの回復を可能にする。
既存の防御は、単純な適応攻撃によって破壊される可能性があることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:41:30Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。