論文の概要: Mirror Mirror on the Wall, Have I Forgotten it All? A New Framework for Evaluating Machine Unlearning
- arxiv url: http://arxiv.org/abs/2505.08138v1
- Date: Tue, 13 May 2025 00:23:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.377329
- Title: Mirror Mirror on the Wall, Have I Forgotten it All? A New Framework for Evaluating Machine Unlearning
- Title(参考訳): 壁の鏡に映った鏡は、すべて忘れてしまったか? 機械学習を評価するための新しいフレームワーク
- Authors: Brennon Brimhall, Philip Mathew, Neil Fendley, Yinzhi Cao, Matthew Green,
- Abstract要約: 機械学習の手法は、データセットとリクエストセットでトレーニングされたモデルを取り、その後、リクエストセットにない例でのみトレーニングされたかのようにモデルを生成しようと試みる。
敵がミラーモデルと非学習手法で生成したモデルとを区別できることを示す。
本稿では,計算機アンラーニングという,機械アンラーニングのための強力な形式的定義を提案する。
- 参考スコア(独自算出の注目度): 15.37608643831483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning methods take a model trained on a dataset and a forget set, then attempt to produce a model as if it had only been trained on the examples not in the forget set. We empirically show that an adversary is able to distinguish between a mirror model (a control model produced by retraining without the data to forget) and a model produced by an unlearning method across representative unlearning methods from the literature. We build distinguishing algorithms based on evaluation scores in the literature (i.e. membership inference scores) and Kullback-Leibler divergence. We propose a strong formal definition for machine unlearning called computational unlearning. Computational unlearning is defined as the inability for an adversary to distinguish between a mirror model and a model produced by an unlearning method. If the adversary cannot guess better than random (except with negligible probability), then we say that an unlearning method achieves computational unlearning. Our computational unlearning definition provides theoretical structure to prove unlearning feasibility results. For example, our computational unlearning definition immediately implies that there are no deterministic computational unlearning methods for entropic learning algorithms. We also explore the relationship between differential privacy (DP)-based unlearning methods and computational unlearning, showing that DP-based approaches can satisfy computational unlearning at the cost of an extreme utility collapse. These results demonstrate that current methodology in the literature fundamentally falls short of achieving computational unlearning. We conclude by identifying several open questions for future work.
- Abstract(参考訳): 機械学習の手法は、データセットとリクエストセットでトレーニングされたモデルを取り、その後、リクエストセットにない例でのみトレーニングされたかのようにモデルを生成しようと試みる。
筆者らは, ミラーモデル(忘れるデータなしに再学習する制御モデル)と, 代表的な未学習手法をまたいだアンラーニング手法によって作成されたモデルとを, 相手が識別できることを実証的に示す。
文献(会員推定スコア)とKulback-Leibler分散度(英語版)における評価スコアに基づく判別アルゴリズムを構築した。
本稿では,計算機アンラーニングという,機械アンラーニングのための強力な形式的定義を提案する。
計算アンラーニング(英: Computational unlearning)とは、ミラーモデルとアンラーニング法によって生成されたモデルとを区別できない相手の能力である。
もし敵が(無視可能な確率を除いて)ランダムに予測できないなら、未学習の手法は計算未学習を実現する。
我々の計算未学習定義は、未学習の実現可能性を証明する理論的構造を提供する。
例えば、我々の計算アンラーニング定義は、エントロピー学習アルゴリズムに決定論的計算アンラーニング方法がないことを直ちに示している。
また、差分プライバシ(DP)に基づく非学習手法と計算アンラーニングの関係についても検討し、計算アンラーニングを計算アンラーニングに充足できることを示す。
これらの結果は、現在の文献の方法論は、基本的には計算未学習を達成できないことを示している。
今後の作業について、いくつかのオープンな質問を識別することで結論付けます。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
これらのデータポイントを消去する目的で、多くの機械学習アルゴリズムが提案されている。
本稿では,機械学習アルゴリズムが対象データ消去を行う能力を評価する,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - UnUnlearning: Unlearning is not sufficient for content regulation in advanced generative AI [50.61495097098296]
大規模言語モデル(LLM)におけるアンラーニングのパラダイムを再考する。
未学習の概念を導入し、未学習の知識を文脈内で再導入する。
我々は、不寛容な知識に対するコンテンツフィルタリングが不可欠であり、正確な未学習スキームでさえ、効果的なコンテンツ規制には不十分であると主張している。
論文 参考訳(メタデータ) (2024-06-27T10:24:35Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Model Sparsity Can Simplify Machine Unlearning [33.18951938708467]
最近のデータ規制要件に応えて、マシン・アンラーニング(MU)が重要なプロセスとして登場した。
本研究は,ウェイトプルーニングによるモデルスペーシフィケーションという,新しいモデルベース視点を紹介する。
理論と実践の両方において、モデルスパーシティは、近似アンラーナーのマルチ基準アンラーニング性能を高めることができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:12:02Z) - On the Necessity of Auditable Algorithmic Definitions for Machine
Unlearning [13.149070833843133]
機械学習、すなわち、トレーニングデータのいくつかを忘れるモデルを持つことは、プライバシー法が忘れられる権利の変種を促進するにつれ、ますます重要になっている。
まず、ほぼ未学習のモデルが正確に訓練されたモデルに近いことを証明しようとする、近似的未学習の定義は、異なるデータセットを用いて同じモデルを得ることができるため、正しくないことを示す。
そして、正確なアンラーニングアプローチに目を向け、アンラーニングのクレームの検証方法を尋ねます。
論文 参考訳(メタデータ) (2021-10-22T16:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。