論文の概要: Really Unlearned? Verifying Machine Unlearning via Influential Sample Pairs
- arxiv url: http://arxiv.org/abs/2406.10953v1
- Date: Sun, 16 Jun 2024 14:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 19:52:39.154129
- Title: Really Unlearned? Verifying Machine Unlearning via Influential Sample Pairs
- Title(参考訳): 真に学べない? インフルエンシアル・サンプル・ペアによる機械学習の検証
- Authors: Heng Xu, Tianqing Zhu, Lefeng Zhang, Wanlei Zhou,
- Abstract要約: 本研究では,非学習要求が実行されたかどうかを判定する形式的検証手法であるIndirectVerifyを提案する。
ユーザは、トリガーサンプルに関する未学習リクエストを送信し、反応サンプルを使用して、未学習操作が成功したかどうかを確認する。
- 参考スコア(独自算出の注目度): 17.34152231409953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning enables pre-trained models to eliminate the effects of partial training samples. Previous research has mainly focused on proposing efficient unlearning strategies. However, the verification of machine unlearning, or in other words, how to guarantee that a sample has been successfully unlearned, has been overlooked for a long time. Existing verification schemes typically rely on machine learning attack techniques, such as backdoor or membership inference attacks. As these techniques are not formally designed for verification, they are easily bypassed when an untrustworthy MLaaS undergoes rapid fine-tuning to merely meet the verification conditions, rather than executing real unlearning. In this paper, we propose a formal verification scheme, IndirectVerify, to determine whether unlearning requests have been successfully executed. We design influential sample pairs: one referred to as trigger samples and the other as reaction samples. Users send unlearning requests regarding trigger samples and use reaction samples to verify if the unlearning operation has been successfully carried out. We propose a perturbation-based scheme to generate those influential sample pairs. The objective is to perturb only a small fraction of trigger samples, leading to the reclassification of reaction samples. This indirect influence will be used for our verification purposes. In contrast to existing schemes that employ the same samples for all processes, our scheme, IndirectVerify, provides enhanced robustness, making it less susceptible to bypassing processes.
- Abstract(参考訳): マシンアンラーニングにより、事前訓練されたモデルは、部分的なトレーニングサンプルの影響を排除することができる。
従来の研究は主に効率的なアンラーニング戦略の提案に重点を置いてきた。
しかし、機械学習の検証、あるいは言い換えれば、サンプルが未学習に成功していることをどうやって保証するかは、長い間見過ごされてきた。
既存の検証スキームは一般的に、バックドアやメンバーシップ推論攻撃のような機械学習攻撃技術に依存している。
これらのテクニックは、公式には検証のために設計されていないため、信頼できないMLaaSが、実際の未学習を実行するのではなく、単に検証条件を満たすために迅速に微調整を行う場合、容易にバイパスされる。
本稿では,非学習要求が実行されたかどうかを判定する形式的検証手法であるIndirectVerifyを提案する。
反応試料として, 反応試料として, 反応試料として, および反応試料として設計する。
ユーザは、トリガーサンプルに関する未学習リクエストを送信し、反応サンプルを使用して、未学習操作が成功したかどうかを確認する。
そこで我々は,これらの影響のあるサンプルペアを生成するための摂動に基づくスキームを提案する。
目的は、少量のトリガーサンプルだけを摂動させることであり、反応サンプルの再分類に繋がる。
この間接的な影響は、我々の検証目的に利用されます。
すべてのプロセスで同じサンプルを使用する既存のスキームとは対照的に、我々のスキームであるIndirectVerifyは、強化されたロバスト性を提供し、プロセスをバイパスする可能性を減らす。
関連論文リスト
- Evaluating of Machine Unlearning: Robustness Verification Without Prior Modifications [15.257558809246524]
Unlearningは、事前トレーニングされたモデルが特定のトレーニングサンプルの影響を取り除くことができるプロセスである。
既存の検証方法は、メンバシップ推論攻撃(MIA)やバックドア攻撃のような機械学習攻撃技術に依存している。
本稿では,事前の修正を伴わない新しい検証手法を提案し,より大規模な検証を支援する。
論文 参考訳(メタデータ) (2024-10-14T03:19:14Z) - Which Pretrain Samples to Rehearse when Finetuning Pretrained Models? [60.59376487151964]
特定のタスクに関する微調整済みモデルが、テキストとビジョンタスクの事実上のアプローチになった。
このアプローチの落とし穴は、微調整中に起こる事前学習の知識を忘れることである。
本研究では,実際に忘れられているサンプルを識別・優先順位付けする新しいサンプリング手法であるmix-cdを提案する。
論文 参考訳(メタデータ) (2024-02-12T22:32:12Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Improving traffic sign recognition by active search [0.0]
稀な交通標識を認識するための反復的能動学習アルゴリズムについて述べる。
標準のResNetは、レアクラスの単一のサンプルのみを含むトレーニングセットでトレーニングされる。
本研究は, 希少クラスに属する推定確率によって, 未ラベル集合の標本を分類することにより, 希少クラスからの標本を効率的に同定できることを実証する。
論文 参考訳(メタデータ) (2021-11-29T10:14:44Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - Identifying Wrongly Predicted Samples: A Method for Active Learning [6.976600214375139]
本稿では,不確実性を超えた単純なサンプル選択基準を提案する。
予測されたサンプルを正しく識別するために、最先端の結果とより良いレートを示す。
論文 参考訳(メタデータ) (2020-10-14T09:00:42Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。