論文の概要: Rethinking Machine Unlearning: Models Designed to Forget via Key Deletion
- arxiv url: http://arxiv.org/abs/2603.15033v1
- Date: Mon, 16 Mar 2026 09:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:57.988416
- Title: Rethinking Machine Unlearning: Models Designed to Forget via Key Deletion
- Title(参考訳): 機械学習を再考する - キー削除による予測モデル
- Authors: Sonia Laguna, Jorge da Silva Goncalves, Moritz Vandenhirtz, Alain Ryser, Irene Cannistraci, Julia E. Vogt,
- Abstract要約: 本稿では,デザインによるテクスチュンラーニングを提案する。
我々はこのアイデアを、モデルウェイトからインスタンス固有のものを分離するメモリ拡張トランスフォーマーであるKEY deletion (MUNKEY)を介して、Machine UNlearningでインスタンス化する。
その結果、設計によるアンラーニングは、予測性能を維持しながら、高速でデプロイ指向のアンラーニングを可能にすることが判明した。
- 参考スコア(独自算出の注目度): 18.166109788922153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning is rapidly becoming a practical requirement, driven by privacy regulations, data errors, and the need to remove harmful or corrupted training samples. Despite this, most existing methods tackle the problem purely from a post-hoc perspective. They attempt to erase the influence of targeted training samples through parameter updates that typically require access to the full training data. This creates a mismatch with real deployment scenarios where unlearning requests can be anticipated, revealing a fundamental limitation of post-hoc approaches. We propose \textit{unlearning by design}, a novel paradigm in which models are directly trained to support forgetting as an inherent capability. We instantiate this idea with Machine UNlearning via KEY deletion (MUNKEY), a memory augmented transformer that decouples instance-specific memorization from model weights. Here, unlearning corresponds to removing the instance-identifying key, enabling direct zero-shot forgetting without weight updates or access to the original samples or labels. Across natural image benchmarks, fine-grained recognition, and medical datasets, MUNKEY outperforms all post-hoc baselines. Our results establish that unlearning by design enables fast, deployment-oriented unlearning while preserving predictive performance.
- Abstract(参考訳): マシンアンラーニングは、プライバシー規制、データエラー、有害または破損したトレーニングサンプルを削除する必要性によって、急速に現実的な要件になりつつある。
それにもかかわらず、既存のほとんどのメソッドは、ポストホックの観点から純粋にこの問題に取り組みます。
彼らは通常、完全なトレーニングデータへのアクセスを必要とするパラメータ更新を通じて、ターゲットとなるトレーニングサンプルの影響を消そうとしている。
これにより、未学習の要求を予測できる実際のデプロイメントシナリオとのミスマッチが発生し、ポストホックアプローチの根本的な制限が明らかになる。
本稿では, モデルを直接訓練して, 忘れを本来の能力として支援する, 新たなパラダイムである「textit{unlearning by design」を提案する。
我々はこのアイデアを、モデルウェイトからインスタンス固有の記憶を分離するメモリ拡張トランスフォーマーであるKEY deletion (MUNKEY)を介して、Machine UNlearningでインスタンス化する。
ここでは、アンラーニングは、インスタンス識別キーを削除することに対応し、重み付け更新や元のサンプルやラベルへのアクセスなしに、直接ゼロショットを忘れることができる。
自然画像ベンチマーク、きめ細かな認識、医療データセットなど、MUNKEYはすべてのポストホックベースラインを上回ります。
その結果、設計によるアンラーニングは、予測性能を維持しながら、高速でデプロイ指向のアンラーニングを可能にすることが判明した。
関連論文リスト
- Model Collapse Is Not a Bug but a Feature in Machine Unlearning for LLMs [54.167494079321465]
LLMの現在のアンラーニング方法は、それらを微調整データに組み込むことで、削除しようとしているプライベート情報に基づいて最適化されている。
本研究では,未学習目標を学習対象に含まない新しい非学習手法-部分的モデル崩壊(PMC)を提案する。
論文 参考訳(メタデータ) (2025-07-06T03:08:49Z) - NOVO: Unlearning-Compliant Vision Transformers [17.810044173023474]
pnameは、要求されたセットを微調整することなく、将来の未学習リクエストに対してアンラーニングを実行することができる。
キーを取り除き、オンザフライで学習し、パフォーマンスの劣化を避けることで、フォーミングを実現する。
論文 参考訳(メタデータ) (2025-07-04T04:12:34Z) - An Information Theoretic Approach to Machine Unlearning [43.423418819707784]
AIやデータ規則に従うためには、トレーニングされた機械学習モデルからプライベートまたは著作権のある情報を忘れる必要性がますます高まっている。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。