論文の概要: Lightweight machine unlearning in neural network
- arxiv url: http://arxiv.org/abs/2111.05528v1
- Date: Wed, 10 Nov 2021 04:48:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 20:54:38.183448
- Title: Lightweight machine unlearning in neural network
- Title(参考訳): ニューラルネットワークにおける軽量マシンアンラーニング
- Authors: Kongyang Chen, Yiwen Wang, Yao Huang
- Abstract要約: 「忘れるべき権利」は、個人が同意に基づいて同意を取り下げる権利を有することを規定して、タイムリーに導入された。
この問題を解決するために、モデルがプライベート情報のすべてのメモリを消去できるマシンアンラーニングを提案する。
我々の方法は再訓練の15倍速い。
- 参考スコア(独自算出の注目度): 2.406359246841227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, machine learning neural network has penetrated deeply into
people's life. As the price of convenience, people's private information also
has the risk of disclosure. The "right to be forgotten" was introduced in a
timely manner, stipulating that individuals have the right to withdraw their
consent from personal information processing activities based on their consent.
To solve this problem, machine unlearning is proposed, which allows the model
to erase all memory of private information. Previous studies, including
retraining and incremental learning to update models, often take up extra
storage space or are difficult to apply to neural networks. Our method only
needs to make a small perturbation of the weight of the target model and make
it iterate in the direction of the model trained with the remaining data subset
until the contribution of the unlearning data to the model is completely
eliminated. In this paper, experiments on five datasets prove the effectiveness
of our method for machine unlearning, and our method is 15 times faster than
retraining.
- Abstract(参考訳): 近年,機械学習ニューラルネットワークが人々の生活に深く浸透している。
コンビニエンスの価格としては、個人の個人情報も開示されるリスクがある。
忘れられる権利」は、個人が自分の同意に基づいて個人情報処理活動から同意を取り消す権利を有することを規定して、タイムリーに導入された。
この問題を解決するために、モデルが全てのプライベート情報のメモリを消去できる機械学習が提案されている。
モデル更新のためのリトレーニングや漸進的な学習を含む過去の研究は、しばしば余分なストレージスペースを取り込むか、ニューラルネットワークに適用するのが困難である。
本手法では, モデルへの無学習データの寄与が完全に排除されるまで, 対象モデルの重みの小さな摂動と, 残りのデータサブセットで訓練されたモデルの方向の反復を行うだけでよい。
本稿では,5つのデータセットを用いた実験により,機械学習における本手法の有効性が証明され,本手法は再学習よりも15倍高速である。
関連論文リスト
- Machine Unlearning using Forgetting Neural Networks [0.0]
本稿では,忘れニューラルネットワーク(FNN)を用いた機械学習の新しいアプローチを提案する。
FNNは特定の記憶層を持つニューラルネットワークで、人間の脳が忘れられたときのプロセスからインスピレーションを受けます。
MNIST手書き文字認識とファッションデータセットについて報告する。
論文 参考訳(メタデータ) (2024-10-29T02:52:26Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Machine Unlearning Methodology base on Stochastic Teacher Network [33.763901254862766]
「忘れられる権利」は、データ所有者に、モデルトレーニングに使用したデータを積極的に取り出す権利を与える。
既存の機械学習手法は、ディープラーニングモデルから知識を素早く取り除くのに効果がないことが判明した。
本稿では,ネットワークを教師として利用して,忘れられたデータによる影響の軽減を図ることを提案する。
論文 参考訳(メタデータ) (2023-08-28T06:05:23Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Machine Unlearning Method Based On Projection Residual [23.24026891609028]
本稿ではニュートン法に基づく投射残差法を採用する。
主な目的は、線形回帰モデルとニューラルネットワークモデルという文脈で機械学習タスクを実装することである。
実験により, この手法は, モデル再学習に近いデータ削除において, より徹底的な手法であることが確認された。
論文 参考訳(メタデータ) (2022-09-30T07:29:55Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Explain to Not Forget: Defending Against Catastrophic Forgetting with
XAI [10.374979214803805]
破滅的な忘れは、ニューラルネットワークが新しい情報を与えられたときの過去の知識を完全に忘れてしまう現象を記述している。
我々は、ニューラルネットワークが新しいデータをトレーニングする際に、以前のタスクで既に学んだ情報を保持するために、レイヤーワイズ関連伝播を利用する、トレーニングと呼ばれる新しいトレーニングアルゴリズムを提案する。
我々の手法は、ニューラルネットワーク内の古いタスクの知識をうまく保持するだけでなく、他の最先端のソリューションよりもリソース効率が良い。
論文 参考訳(メタデータ) (2022-05-04T08:00:49Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z) - Learn to Forget: Machine Unlearning via Neuron Masking [36.072775581268544]
本稿では,機械学習手法の有効性を評価するために,for-getting rateと呼ばれる一貫した指標を提案する。
また,Forsakenという新しいアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-03-24T15:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。