論文の概要: EVE: Efficient Verification of Data Erasure through Customized Perturbation in Approximate Unlearning
- arxiv url: http://arxiv.org/abs/2602.03567v1
- Date: Tue, 03 Feb 2026 14:09:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.503505
- Title: EVE: Efficient Verification of Data Erasure through Customized Perturbation in Approximate Unlearning
- Title(参考訳): EVE: 近似アンラーニングにおけるカスタマイズ摂動によるデータ消去の効率的な検証
- Authors: Weiqi Wang, Zhiyi Tian, Chenhan Zhang, Luoyu Chen, Shui Yu,
- Abstract要約: 本研究では,機械学習における消去手法(EVE)の有効検証を提案する。
中心となる考え方は、未学習データを摂動させ、指定されたサンプルのモデル予測が変更されることを保証することである。
実験を行った結果,EVEはモデルの初期学習過程を介さずに,機械学習を検証できることがわかった。
- 参考スコア(独自算出の注目度): 27.485504993716884
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Verifying whether the machine unlearning process has been properly executed is critical but remains underexplored. Some existing approaches propose unlearning verification methods based on backdooring techniques. However, these methods typically require participation in the model's initial training phase to backdoor the model for later verification, which is inefficient and impractical. In this paper, we propose an efficient verification of erasure method (EVE) for verifying machine unlearning without requiring involvement in the model's initial training process. The core idea is to perturb the unlearning data to ensure the model prediction of the specified samples will change before and after unlearning with perturbed data. The unlearning users can leverage the observation of the changes as a verification signal. Specifically, the perturbations are designed with two key objectives: ensuring the unlearning effect and altering the unlearned model's prediction of target samples. We formalize the perturbation generation as an adversarial optimization problem, solving it by aligning the unlearning gradient with the gradient of boundary change for target samples. We conducted extensive experiments, and the results show that EVE can verify machine unlearning without involving the model's initial training process, unlike backdoor-based methods. Moreover, EVE significantly outperforms state-of-the-art unlearning verification methods, offering significant speedup in efficiency while enhancing verification accuracy. The source code of EVE is released at \uline{https://anonymous.4open.science/r/EVE-C143}, providing a novel tool for verification of machine unlearning.
- Abstract(参考訳): 機械学習プロセスが適切に実行されたかどうかを検証することは重要であるが、まだ探索されていない。
既存の手法では,バックドア手法に基づく未学習の検証手法が提案されている。
しかしながら、これらの手法は後続の検証のためにモデルの最初のトレーニングフェーズに参加する必要があるが、これは非効率で実用的ではない。
本稿では,モデルの初期訓練プロセスに介在することなく,機械学習を検証するための消去手法(EVE)の効率的な検証を提案する。
中心となる考え方は、未学習データを摂動させ、特定サンプルのモデル予測が摂動データによる未学習の前後で変更されることを保証することである。
未学習ユーザは、その変化の観察を検証信号として利用することができる。
特に、摂動は、未学習効果の確保と未学習モデルのターゲットサンプル予測の変更という、2つの主要な目的で設計されている。
対向最適化問題として摂動生成を形式化し、未学習の勾配と対象試料の境界変化の勾配を整合させて解決する。
実験を行った結果,EVEは,バックドア方式とは異なり,モデルの初期訓練プロセスに関わらず,機械学習を検証できることがわかった。
さらに、EVEは最先端の未学習検証手法を著しく上回り、精度を向上しながら効率を大幅に向上させる。
EVEのソースコードは \uline{https://anonymous.4open.science/r/EVE-C143} で公開されている。
関連論文リスト
- Certified Unlearning in Decentralized Federated Learning [24.229643475639293]
分散連合学習(DFL)では、クライアントがローカル更新を隣人とのみ交換することで、モデル情報がネットワーク全体に伝播し混在する。
ニュートンスタイルの更新に基づくDFLのための新しい認定アンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-10T05:39:24Z) - UniErase: Towards Balanced and Precise Unlearning in Language Models [69.04923022755547]
大規模言語モデル(LLM)は、古い情報問題に対処するために反復的な更新を必要とする。
UniEraseは、知識の未学習と能力保持の間の精度とバランスの取れたパフォーマンスを示す、新しいアンラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-05-21T15:53:28Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Model Sparsity Can Simplify Machine Unlearning [33.18951938708467]
最近のデータ規制要件に応えて、マシン・アンラーニング(MU)が重要なプロセスとして登場した。
本研究は,ウェイトプルーニングによるモデルスペーシフィケーションという,新しいモデルベース視点を紹介する。
理論と実践の両方において、モデルスパーシティは、近似アンラーナーのマルチ基準アンラーニング性能を高めることができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:12:02Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Unrolling SGD: Understanding Factors Influencing Machine Unlearning [17.6607904333012]
機械学習は、デプロイされた機械学習モデルがトレーニングデータポイントの1つを忘れるプロセスである。
まず、近似アンラーニングのアプローチとメトリクスを分類する。
検証誤差(L2差)、すなわち、ほとんど学習されていないモデルの重みと鼻再訓練されたモデルのL2差を同定する。
論文 参考訳(メタデータ) (2021-09-27T23:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。