論文の概要: Remaining-data-free Machine Unlearning by Suppressing Sample Contribution
- arxiv url: http://arxiv.org/abs/2402.15109v3
- Date: Fri, 06 Dec 2024 15:06:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 12:36:17.850171
- Title: Remaining-data-free Machine Unlearning by Suppressing Sample Contribution
- Title(参考訳): サンプルコントリビューションの抑制による残データ自由マシンの学習
- Authors: Xinwen Cheng, Zhehao Huang, Wenxin Zhou, Zhengbao He, Ruikai Yang, Yingwen Wu, Xiaolin Huang,
- Abstract要約: 非学習モデルは、トレーニングプロセスに忘れたデータが関与せず、したがって再学習されたモデルに寄与しない、再学習されたモデルにアプローチすべきである。
本稿では, MU-Mis (Machine Unlearning by Minimize input sensitivity) を提案する。
残余データのない手法が、残余データを利用する最先端の未学習手法より優れているのは、これが初めてである。
- 参考スコア(独自算出の注目度): 22.30844094734722
- License:
- Abstract: Machine unlearning (MU) is to forget data from a well-trained model, which is practically important due to the ``right to be forgotten''. The unlearned model should approach the retrained model, where the forgetting data are not involved in the training process and hence do not contribute to the retrained model. Considering the forgetting data's absence during retraining, we think unlearning should withdraw their contribution from the pre-trained model. The challenge is that when tracing the learning process is impractical, how to quantify and detach sample's contribution to the dynamic learning process using only the pre-trained model. We first theoretically discover that sample's contribution during the process will reflect in the learned model's sensitivity to it. We then practically design a novel method, namely MU-Mis (Machine Unlearning by Minimizing input sensitivity), to suppress the contribution of the forgetting data. Experimental results demonstrate that MU-Mis can unlearn effectively and efficiently without utilizing the remaining data. It is the first time that a remaining-data-free method can outperform state-of-the-art (SoTA) unlearning methods that utilize the remaining data.
- Abstract(参考訳): マシン・アンラーニング(MU)とは、よく訓練されたモデルからデータを忘れることである。
学習されていないモデルは、トレーニングプロセスに忘れたデータが関与せず、再訓練されたモデルに寄与しない、再訓練されたモデルにアプローチすべきである。
再トレーニング中のデータの欠如を考えると、未学習は事前学習モデルから貢献を取り除くべきだと考えています。
課題は、学習プロセスのトレースが現実的でない場合、事前学習されたモデルのみを使用して、サンプルの動的学習プロセスへの貢献を定量化し、デタッチする方法である。
まず、プロセス中のサンプルの寄与が学習モデルの感度に反映されることを理論的に発見する。
そこで我々は, MU-Mis (Machine Unlearning by Minimize input sensitivity) という新しい手法を実際に設計し, 忘れるデータの寄与を抑制する。
実験の結果,MU-Misは残余のデータを利用せずに効果的に効率的に解凍できることがわかった。
残余データフリーの手法が、残余データを利用する最先端(SoTA)アンラーニング手法より優れているのは、これが初めてである。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Deep Unlearn: Benchmarking Machine Unlearning [7.450700594277741]
機械学習(MU)は、訓練された機械学習モデルの学習可能なパラメータから、特定のデータポイントの影響を取り除くことを目的としている。
本稿では,様々なベンチマークデータセットおよびモデルを対象とした18種類の最先端MU手法について検討する。
論文 参考訳(メタデータ) (2024-10-02T06:41:58Z) - Label Smoothing Improves Machine Unlearning [29.611981055071197]
この研究は、スムーズなラベルを使用するシンプルなプラグアンドプレイマシンアンラーニングアプローチであるUGradSLを導入している。
MU性能の一貫した改善は、余剰計算の限界コストでしかない。
論文 参考訳(メタデータ) (2024-06-11T20:26:26Z) - Challenging Forgets: Unveiling the Worst-Case Forget Sets in Machine Unlearning [9.998859702421417]
マシン・アンラーニング(MU)は、選択したデータポイントがモデルの性能に与える影響を排除することを目的としている。
データ影響消去のための様々なMU手法にもかかわらず、評価は主にランダムなデータの忘れ方に焦点を当てている。
本稿では,影響消去の最も重要な課題を示すデータサブセットの同定を提案する。
論文 参考訳(メタデータ) (2024-03-12T06:50:32Z) - SalUn: Empowering Machine Unlearning via Gradient-based Weight Saliency in Both Image Classification and Generation [30.168665935074166]
本稿では,機械学習における「重み値」の概念を導入し,モデル説明における入力値値と並列性について述べる。
サリエンシ・アンラーニング(SalUn)と呼ばれる結果の手法は、パフォーマンスのギャップを「正確な」アンラーニングで狭める。
SalUnは、画像分類と生成タスクの両方において、データ、クラス、概念を忘れることの影響を効果的に消すことができる最初の原則MUアプローチである。
論文 参考訳(メタデータ) (2023-10-19T06:17:17Z) - Machine Learning Force Fields with Data Cost Aware Training [94.78998399180519]
分子動力学(MD)シミュレーションを加速するために機械学習力場(MLFF)が提案されている。
最もデータ効率のよいMLFFであっても、化学精度に達するには数百フレームの力とエネルギーのラベルが必要になる。
我々は、安価な不正確なデータと高価な正確なデータの組み合わせを利用して、MLFFのデータコストを下げる多段階計算フレームワークASTEROIDを提案する。
論文 参考訳(メタデータ) (2023-06-05T04:34:54Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。