論文の概要: SMS: Self-supervised Model Seeding for Verification of Machine Unlearning
- arxiv url: http://arxiv.org/abs/2509.25613v1
- Date: Tue, 30 Sep 2025 00:18:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.373786
- Title: SMS: Self-supervised Model Seeding for Verification of Machine Unlearning
- Title(参考訳): SMS: 機械学習の検証のための自己教師型モデル検索
- Authors: Weiqi Wang, Chenhan Zhang, Zhiyi Tian, Shui Yu,
- Abstract要約: そこで本研究では,真のサンプルに対する未学習検証を実現するための自己教師付きモデル探索(SMS)手法を提案する。
SMSは、ユーザ固有の種(ユーザのユニークなインデックスなど)、元のサンプル、モデルなど)をリンクし、未学習の真のサンプルの検証を容易にする。
- 参考スコア(独自算出の注目度): 29.11439332064202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine unlearning methods have been proposed recently to uphold users' right to be forgotten. However, offering users verification of their data removal post-unlearning is an important yet under-explored problem. Current verifications typically rely on backdooring, i.e., adding backdoored samples to influence model performance. Nevertheless, the backdoor methods can merely establish a connection between backdoored samples and models but fail to connect the backdoor with genuine samples. Thus, the backdoor removal can only confirm the unlearning of backdoored samples, not users' genuine samples, as genuine samples are independent of backdoored ones. In this paper, we propose a Self-supervised Model Seeding (SMS) scheme to provide unlearning verification for genuine samples. Unlike backdooring, SMS links user-specific seeds (such as users' unique indices), original samples, and models, thereby facilitating the verification of unlearning genuine samples. However, implementing SMS for unlearning verification presents two significant challenges. First, embedding the seeds into the service model while keeping them secret from the server requires a sophisticated approach. We address this by employing a self-supervised model seeding task, which learns the entire sample, including the seeds, into the model's latent space. Second, maintaining the utility of the original service model while ensuring the seeding effect requires a delicate balance. We design a joint-training structure that optimizes both the self-supervised model seeding task and the primary service task simultaneously on the model, thereby maintaining model utility while achieving effective model seeding. The effectiveness of the proposed SMS scheme is evaluated through extensive experiments, which demonstrate that SMS provides effective verification for genuine sample unlearning, addressing existing limitations.
- Abstract(参考訳): 近年,忘れられる権利を維持するために,多くの機械学習手法が提案されている。
しかし、学習後のデータ削除の検証をユーザに提供することは、重要だが未調査の課題である。
現在の検証は一般的にバックドアに依存しており、モデルの性能に影響を与えるためにバックドアのサンプルを追加する。
それにもかかわらず、バックドア法は単にバックドアのサンプルとモデルの間の接続を確立するだけで、バックドアと本物のサンプルを接続できない。
したがって、バックドア除去は、本来のサンプルがバックドアのサンプルとは独立しているため、ユーザによる真のサンプルではなく、バックドアのサンプルの未学習を確認することしかできない。
本稿では,真のサンプルに対する未学習検証を実現するための,自己教師付きモデル探索(SMS)方式を提案する。
バックドアとは異なり、SMSはユーザー固有の種(ユーザーのユニークな指標など)、オリジナルのサンプル、モデルなどをリンクし、未学習の真のサンプルの検証を容易にする。
しかし、未学習検証のためのSMSの実装には2つの大きな課題がある。
まず、シードをサービスモデルに埋め込み、サーバから秘密にしておくには、洗練されたアプローチが必要です。
この問題に対処するために、自己教師付きモデルシードタスクを使用して、シードを含む全サンプルをモデルの潜在空間に学習する。
第二に、オリジナルのサービスモデルの実用性を維持しつつ、シード効果を確保するためには微妙なバランスが必要である。
我々は,自己教師型モデルシードタスクとプライマリサービスタスクの両方をモデル上で同時に最適化し,効率的なモデルシードを実現しつつ,モデルの有用性を維持する共同学習構造を設計する。
提案手法の有効性を広範囲な実験により評価し,SMSが真の未学習サンプルに対する有効検証を提供し,既存の制約に対処できることを実証した。
関連論文リスト
- Fake it till You Make it: Reward Modeling as Discriminative Prediction [49.31309674007382]
GAN-RMは、手動の嗜好アノテーションと明示的な品質次元工学を排除した効率的な報酬モデリングフレームワークである。
提案手法は,少数の対象サンプルを識別し,報酬モデルを訓練する。
実験では、GAN-RMが複数の主要なアプリケーションにまたがって有効であることを実証した。
論文 参考訳(メタデータ) (2025-06-16T17:59:40Z) - Identify Backdoored Model in Federated Learning via Individual Unlearning [7.200910949076064]
裏口攻撃は、フェデレートラーニング(FL)の堅牢性に重大な脅威をもたらす
FLにおける悪意のあるモデルを特定するために,ローカルモデル上で個別の未学習を利用する手法であるMASAを提案する。
私たちの知る限りでは、FLの悪意あるモデルを特定するために機械学習を活用するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-11-01T21:19:47Z) - Really Unlearned? Verifying Machine Unlearning via Influential Sample Pairs [17.34152231409953]
本研究では,非学習要求が実行されたかどうかを判定する形式的検証手法であるIndirectVerifyを提案する。
ユーザは、トリガーサンプルに関する未学習リクエストを送信し、反応サンプルを使用して、未学習操作が成功したかどうかを確認する。
論文 参考訳(メタデータ) (2024-06-16T14:14:05Z) - Model Reprogramming Outperforms Fine-tuning on Out-of-distribution Data in Text-Image Encoders [56.47577824219207]
本稿では,侵入的微調整技術に関連する隠れたコストを明らかにする。
ファインチューニングのための新しいモデル再プログラミング手法を導入し、それをリプログラマと呼ぶ。
我々の経験的証拠は、Re Programmerは侵入力が少なく、より優れた下流モデルが得られることを示している。
論文 参考訳(メタデータ) (2024-03-16T04:19:48Z) - Setting the Trap: Capturing and Defeating Backdoors in Pretrained
Language Models through Honeypots [68.84056762301329]
近年の研究では、バックドア攻撃に対するプレトレーニング言語モデル(PLM)の感受性が明らかにされている。
バックドア情報のみを吸収するために,ハニーポットモジュールをオリジナルのPLMに統合する。
我々の設計は、PLMの低層表現が十分なバックドア特徴を持っているという観察に動機づけられている。
論文 参考訳(メタデータ) (2023-10-28T08:21:16Z) - Shared Adversarial Unlearning: Backdoor Mitigation by Unlearning Shared
Adversarial Examples [67.66153875643964]
バックドア攻撃は、機械学習モデルに対する深刻なセキュリティ脅威である。
本稿では,小さなクリーンデータセットを用いて,バックドアモデルの浄化作業について検討する。
バックドアリスクと敵的リスクの関連性を確立することにより、バックドアリスクに対する新たな上限を導出する。
論文 参考訳(メタデータ) (2023-07-20T03:56:04Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - Turning a Curse into a Blessing: Enabling In-Distribution-Data-Free
Backdoor Removal via Stabilized Model Inversion [27.294396320665594]
モデル逆転のための二段階最適化に基づく新しいフレームワークを提案する。
事前学習した発電機の潜伏空間から得られたサンプルは, バックドアモデルからの信号を利用した場合であっても, バックドアフリーであることが判明した。
論文 参考訳(メタデータ) (2022-06-14T17:32:04Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。