論文の概要: Machine Unlearning by Suppressing Sample Contribution
- arxiv url: http://arxiv.org/abs/2402.15109v1
- Date: Fri, 23 Feb 2024 05:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 15:42:09.792470
- Title: Machine Unlearning by Suppressing Sample Contribution
- Title(参考訳): サンプル貢献を抑制した機械学習
- Authors: Xinwen Cheng and Zhehao Huang and Xiaolin Huang
- Abstract要約: マシン・アンラーニング(MU)は、よく訓練されたモデルからデータを忘れることである。
理論的には、入力感度がおよそ寄与を計測し、MU-Misと呼ばれるアルゴリズムを実際に設計することで、忘れるデータの寄与を抑えることができる。
- 参考スコア(独自算出の注目度): 25.67718613247491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Unlearning (MU) is to forget data from a well-trained model, which is
practically important due to the "right to be forgotten". In this paper, we
start from the fundamental distinction between training data and unseen data on
their contribution to the model: the training data contributes to the final
model while the unseen data does not. We theoretically discover that the input
sensitivity can approximately measure the contribution and practically design
an algorithm, called MU-Mis (machine unlearning via minimizing input
sensitivity), to suppress the contribution of the forgetting data. Experimental
results demonstrate that MU-Mis outperforms state-of-the-art MU methods
significantly. Additionally, MU-Mis aligns more closely with the application of
MU as it does not require the use of remaining data.
- Abstract(参考訳): 機械学習(mu)とは、よく訓練されたモデルからデータを忘れることであり、これは事実上「忘れられる権利」のために重要である。
本稿では、トレーニングデータと、そのモデルへの貢献に関する未確認データとの根本的な区別から、トレーニングデータが最終モデルに寄与する一方で、未確認データには寄与しないことを示す。
理論上は,入力感度が寄与度を近似的に測定し,mu-misと呼ばれるアルゴリズムを実際に設計することで,忘れられたデータの寄与を抑制できることを見出している。
実験の結果,MU-Misは最先端のMU法よりも優れていた。
さらにMU-Misは、残ったデータを必要としないため、MUの適用とより密に連携する。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Deep Unlearn: Benchmarking Machine Unlearning [7.450700594277741]
機械学習(MU)は、訓練された機械学習モデルの学習可能なパラメータから、特定のデータポイントの影響を取り除くことを目的としている。
本稿では,様々なベンチマークデータセットおよびモデルを対象とした18種類の最先端MU手法について検討する。
論文 参考訳(メタデータ) (2024-10-02T06:41:58Z) - Label Smoothing Improves Machine Unlearning [29.611981055071197]
この研究は、スムーズなラベルを使用するシンプルなプラグアンドプレイマシンアンラーニングアプローチであるUGradSLを導入している。
MU性能の一貫した改善は、余剰計算の限界コストでしかない。
論文 参考訳(メタデータ) (2024-06-11T20:26:26Z) - Challenging Forgets: Unveiling the Worst-Case Forget Sets in Machine Unlearning [9.998859702421417]
マシン・アンラーニング(MU)は、選択したデータポイントがモデルの性能に与える影響を排除することを目的としている。
データ影響消去のための様々なMU手法にもかかわらず、評価は主にランダムなデータの忘れ方に焦点を当てている。
本稿では,影響消去の最も重要な課題を示すデータサブセットの同定を提案する。
論文 参考訳(メタデータ) (2024-03-12T06:50:32Z) - SalUn: Empowering Machine Unlearning via Gradient-based Weight Saliency in Both Image Classification and Generation [30.168665935074166]
本稿では,機械学習における「重み値」の概念を導入し,モデル説明における入力値値と並列性について述べる。
サリエンシ・アンラーニング(SalUn)と呼ばれる結果の手法は、パフォーマンスのギャップを「正確な」アンラーニングで狭める。
SalUnは、画像分類と生成タスクの両方において、データ、クラス、概念を忘れることの影響を効果的に消すことができる最初の原則MUアプローチである。
論文 参考訳(メタデータ) (2023-10-19T06:17:17Z) - Machine Learning Force Fields with Data Cost Aware Training [94.78998399180519]
分子動力学(MD)シミュレーションを加速するために機械学習力場(MLFF)が提案されている。
最もデータ効率のよいMLFFであっても、化学精度に達するには数百フレームの力とエネルギーのラベルが必要になる。
我々は、安価な不正確なデータと高価な正確なデータの組み合わせを利用して、MLFFのデータコストを下げる多段階計算フレームワークASTEROIDを提案する。
論文 参考訳(メタデータ) (2023-06-05T04:34:54Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。