論文の概要: Towards Aligned Data Removal via Twin Machine Unlearning
- arxiv url: http://arxiv.org/abs/2408.11433v1
- Date: Wed, 21 Aug 2024 08:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 17:49:48.126394
- Title: Towards Aligned Data Removal via Twin Machine Unlearning
- Title(参考訳): ツインマシン・アンラーニングによるアラインドデータ除去に向けて
- Authors: Yuyao Sun, Zhenxing Niu, Gang hua, Rong jin,
- Abstract要約: 現代のプライバシー規制は、機械学習の進化を刺激している。
本稿では,2つの未学習問題を元の未学習問題に対応付けて定義する,TMU(Twin Machine Unlearning)アプローチを提案する。
提案手法は未学習モデルと金モデルとのアライメントを著しく向上させる。
- 参考スコア(独自算出の注目度): 30.070660418732807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern privacy regulations have spurred the evolution of machine unlearning, a technique that enables the removal of data from an already trained ML model without requiring retraining from scratch. Previous unlearning methods tend to induce the model to achieve lowest classification accuracy on the removal data. Nonetheless, the authentic objective of machine unlearning is to align the unlearned model with the gold model, i.e., achieving the same classification accuracy as the gold model. For this purpose, we present a Twin Machine Unlearning (TMU) approach, where a twin unlearning problem is defined corresponding to the original unlearning problem. As a results, the generalization-label predictor trained on the twin problem can be transferred to the original problem, facilitating aligned data removal. Comprehensive empirical experiments illustrate that our approach significantly enhances the alignment between the unlearned model and the gold model. Meanwhile, our method allows data removal without compromising the model accuracy.
- Abstract(参考訳): 現代のプライバシ規制は、スクラッチから再トレーニングを必要とせずに、すでにトレーニング済みのMLモデルからデータを削除可能な、機械学習の進化を加速させた。
従来のアンラーニング手法は、除去データに対して最小の分類精度を達成するためにモデルを誘導する傾向にある。
それでも、機械学習の真の目的は、未学習モデルとゴールドモデル、すなわちゴールドモデルと同じ分類精度を達成することである。
この目的のために、ツインマシン・アンラーニング(TMU)アプローチを提案し、元のアンラーニング問題に対応する双子のアンラーニング問題を定義する。
その結果、ツイン問題で訓練された一般化ラベル予測器を元の問題に移すことができ、整列データ除去を容易にすることができる。
包括的実証実験により,本手法は未学習モデルと金モデルとのアライメントを著しく向上させることが示された。
一方,本手法では,モデルの精度を損なうことなくデータ除去が可能となる。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Towards Natural Machine Unlearning [22.49633264030417]
マシン・アンラーニング(MU)は、特定のトレーニングデータ、すなわちデータを忘れることから学んだ情報を、事前訓練されたモデルから排除することを目的としている。
現在、既存のMUメソッドの主流は、誤ったラベルで忘れたデータを修正し、その後、モデルを微調整することである。
我々は,テキストナチュラル・マシン・アンラーニングを導入し,ラベルを変更する際に,残りのデータから正確な情報を忘れるサンプルに注入する。
これらの調整されたサンプルをラベルと組み合わせることで、モデルではインジェクションされた正しい情報を使用し、忘れるべき情報を自然に抑制する傾向にある。
論文 参考訳(メタデータ) (2024-05-24T12:23:38Z) - Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - An Information Theoretic Approach to Machine Unlearning [45.600917449314444]
学びの鍵となる課題は、モデルのパフォーマンスを保ちながら、必要なデータをタイムリーに忘れることである。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - On the Necessity of Auditable Algorithmic Definitions for Machine
Unlearning [13.149070833843133]
機械学習、すなわち、トレーニングデータのいくつかを忘れるモデルを持つことは、プライバシー法が忘れられる権利の変種を促進するにつれ、ますます重要になっている。
まず、ほぼ未学習のモデルが正確に訓練されたモデルに近いことを証明しようとする、近似的未学習の定義は、異なるデータセットを用いて同じモデルを得ることができるため、正しくないことを示す。
そして、正確なアンラーニングアプローチに目を向け、アンラーニングのクレームの検証方法を尋ねます。
論文 参考訳(メタデータ) (2021-10-22T16:16:56Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - A comparison of combined data assimilation and machine learning methods
for offline and online model error correction [0.0]
機械学習手法とデータ同化を併用して動的システムを再構築することは可能であることを示す。
同じアプローチは、知識ベースのモデルのエラーを修正するために使用することができる。
傾向補正がオンラインモデル誤り訂正の可能性を開放することを示す。
論文 参考訳(メタデータ) (2021-07-23T09:57:45Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - Certified Data Removal from Machine Learning Models [79.91502073022602]
優れたデータスチュワードシップでは、データ所有者の要求でデータを削除する必要がある。
これにより、トレーニングデータに関する情報を暗黙的に格納するトレーニングされた機械学習モデルが、このような削除要求の影響を受けるべきかどうか、という疑問が提起される。
データを削除したモデルと、最初にデータを観測しなかったモデルとを区別できないという非常に強力な理論的保証である。
論文 参考訳(メタデータ) (2019-11-08T03:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。