論文の概要: Learn to Forget: Machine Unlearning via Neuron Masking
- arxiv url: http://arxiv.org/abs/2003.10933v3
- Date: Mon, 2 Aug 2021 09:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:42:42.036893
- Title: Learn to Forget: Machine Unlearning via Neuron Masking
- Title(参考訳): 忘れることを学ぶ:ニューロンマスキングによる機械学習
- Authors: Yang Liu, Zhuo Ma, Ximeng Liu, Jian Liu, Zhongyuan Jiang, Jianfeng Ma,
Philip Yu, Kui Ren
- Abstract要約: 本稿では,機械学習手法の有効性を評価するために,for-getting rateと呼ばれる一貫した指標を提案する。
また,Forsakenという新しいアンラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 36.072775581268544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, machine learning models, especially neural networks, become
prevalent in many real-world applications.These models are trained based on a
one-way trip from user data: as long as users contribute their data, there is
no way to withdraw; and it is well-known that a neural network memorizes its
training data. This contradicts the "right to be forgotten" clause of GDPR,
potentially leading to law violations. To this end, machine unlearning becomes
a popular research topic, which allows users to eliminate memorization of their
private data from a trained machine learning model.In this paper, we propose
the first uniform metric called for-getting rate to measure the effectiveness
of a machine unlearning method. It is based on the concept of membership
inference and describes the transformation rate of the eliminated data from
"memorized" to "unknown" after conducting unlearning. We also propose a novel
unlearning method calledForsaken. It is superior to previous work in either
utility or efficiency (when achieving the same forgetting rate). We benchmark
Forsaken with eight standard datasets to evaluate its performance. The
experimental results show that it can achieve more than 90\% forgetting rate on
average and only causeless than 5\% accuracy loss.
- Abstract(参考訳): 現在、機械学習モデル、特にニューラルネットワークは、多くの現実世界のアプリケーションで普及している。これらのモデルは、ユーザーデータからの一方通行に基づいてトレーニングされている。
これはGDPRの「忘れられる権利」条項と矛盾し、法違反につながる可能性がある。
そこで本研究では,機械学習モデルから学習者のプライベートデータの記憶をなくし,機械学習手法の有効性を測定するためのフォーゲッティングレートと呼ばれる一貫した指標を提案する。
これは会員推定の概念に基づいており、未学習の後に削除されたデータの「暗記」から「未知」への変換率を記述する。
また,forsakenと呼ばれる新しい学習手法を提案する。
実用性や効率性において(同じ忘れる速度で)以前の作業よりも優れている。
Forsakenを8つの標準データセットでベンチマークして、パフォーマンスを評価します。
実験の結果, 平均で90%以上, 正解率5倍以上しか達成できないことがわかった。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Random Relabeling for Efficient Machine Unlearning [8.871042314510788]
個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
論文 参考訳(メタデータ) (2023-05-21T02:37:26Z) - Towards Unbounded Machine Unlearning [13.31957848633701]
我々は,異なるアプリケーション (RB, RC, UP) に対するアンラーニングを,それぞれ独自のデシラタ,忘れるための定義,および品質を忘れるための関連する指標をもって研究する。
UPでは,非学習者に対する強力なメンバーシップ推論攻撃の新たな適応を提案する。
また、RB, RC, UPの異なるアプリケーション依存メトリクス間で品質を忘れる上で、一貫してトップパフォーマーである新しいアンラーニングアルゴリズムであるSCRUBを提案する。
論文 参考訳(メタデータ) (2023-02-20T10:15:36Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Machine Unlearning Method Based On Projection Residual [23.24026891609028]
本稿ではニュートン法に基づく投射残差法を採用する。
主な目的は、線形回帰モデルとニューラルネットワークモデルという文脈で機械学習タスクを実装することである。
実験により, この手法は, モデル再学習に近いデータ削除において, より徹底的な手法であることが確認された。
論文 参考訳(メタデータ) (2022-09-30T07:29:55Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Can Bad Teaching Induce Forgetting? Unlearning in Deep Networks using an
Incompetent Teacher [6.884272840652062]
そこで本研究では,学習者・教師の知能・能力に乏しい教師を学習者・教師の枠組みで探究し,忘れがちさを誘発する手法を提案する。
有能で無能な教師からの知識は、学生に選択的に伝達され、忘れデータに関する情報を含まないモデルが得られる。
ゼロ・ナッシング(ZRF)メトリクスを導入し、未学習の手法を評価する。
論文 参考訳(メタデータ) (2022-05-17T05:13:17Z) - Lightweight machine unlearning in neural network [2.406359246841227]
「忘れるべき権利」は、個人が同意に基づいて同意を取り下げる権利を有することを規定して、タイムリーに導入された。
この問題を解決するために、モデルがプライベート情報のすべてのメモリを消去できるマシンアンラーニングを提案する。
我々の方法は再訓練の15倍速い。
論文 参考訳(メタデータ) (2021-11-10T04:48:31Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。