論文の概要: Machine Unlearning using Forgetting Neural Networks
- arxiv url: http://arxiv.org/abs/2410.22374v1
- Date: Tue, 29 Oct 2024 02:52:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:29:26.525627
- Title: Machine Unlearning using Forgetting Neural Networks
- Title(参考訳): 予測ニューラルネットワークを用いた機械学習
- Authors: Amartya Hatua, Trung T. Nguyen, Filip Cano, Andrew H. Sung,
- Abstract要約: 本稿では,忘れニューラルネットワーク(FNN)を用いた機械学習の新しいアプローチを提案する。
FNNは特定の記憶層を持つニューラルネットワークで、人間の脳が忘れられたときのプロセスからインスピレーションを受けます。
MNIST手書き文字認識とファッションデータセットについて報告する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Modern computer systems store vast amounts of personal data, enabling advances in AI and ML but risking user privacy and trust. For privacy reasons, it is desired sometimes for an ML model to forget part of the data it was trained on. This paper presents a new approach to machine unlearning using forgetting neural networks (FNN). FNNs are neural networks with specific forgetting layers, that take inspiration from the processes involved when a human brain forgets. While FNNs had been proposed as a theoretical construct, they have not been previously used as a machine unlearning method. We describe four different types of forgetting layers and study their properties. In our experimental evaluation, we report our results on the MNIST handwritten digit recognition and fashion datasets. The effectiveness of the unlearned models was tested using Membership Inference Attacks (MIA). Successful experimental results demonstrate the great potential of our proposed method for dealing with the machine unlearning problem.
- Abstract(参考訳): 現代のコンピュータシステムは大量の個人情報を格納し、AIとMLの進歩を可能にするが、ユーザのプライバシと信頼を損なう。
プライバシ上の理由から、トレーニングされたデータの一部を忘れることが、MLモデルとして望ましい場合もあります。
本稿では,忘れニューラルネットワーク(FNN)を用いた機械学習の新しいアプローチを提案する。
FNNは特定の記憶層を持つニューラルネットワークで、人間の脳が忘れられたときのプロセスからインスピレーションを受けます。
FNNは理論的な構成として提案されていたが、以前は機械学習の手法として使われていなかった。
4種類の異なる層について記述し,その特性について検討する。
本実験では,MNIST手書きデジタル認識とファッションデータセットについて報告する。
未学習モデルの有効性は、メンバーシップ推論攻撃(MIA)を用いて検証された。
実験結果から,機械学習問題に対する提案手法の大きな可能性を示した。
関連論文リスト
- Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Data Isotopes for Data Provenance in DNNs [27.549744883427376]
トレーニング中にDNNに“spurious features”を導入することで、ユーザがIthronicsと呼ぶ特別なデータポイントを作成できることを示します。
ユーザは、統計仮説テストを適用して、モデルが自分の同位体に関連する刺激的な特徴を学習したかどうかを、ユーザーのデータに基づいてトレーニングすることで検出することができる。
その結果,複数設定で有効性を確認し,高い精度で数百の同位体の検出と識別を行った。
論文 参考訳(メタデータ) (2022-08-29T21:28:35Z) - Reconstructing Training Data from Trained Neural Networks [42.60217236418818]
いくつかのケースでは、トレーニングデータのかなりの部分が、実際にトレーニングされたニューラルネットワーク分類器のパラメータから再構成可能であることを示す。
本稿では,勾配に基づくニューラルネットワークの学習における暗黙バイアスに関する最近の理論的結果から,新たな再構成手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:35:16Z) - The ideal data compression and automatic discovery of hidden law using
neural network [0.0]
我々は、人間の脳がどのように出来事を認識し、記憶するかを考える。
我々は、新しいオートエンコーダニューラルネットワークを用いて、人間の脳のシステムを機械学習モデルで再現する。
論文 参考訳(メタデータ) (2022-03-31T10:55:24Z) - Lightweight machine unlearning in neural network [2.406359246841227]
「忘れるべき権利」は、個人が同意に基づいて同意を取り下げる権利を有することを規定して、タイムリーに導入された。
この問題を解決するために、モデルがプライベート情報のすべてのメモリを消去できるマシンアンラーニングを提案する。
我々の方法は再訓練の15倍速い。
論文 参考訳(メタデータ) (2021-11-10T04:48:31Z) - What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space [88.37185513453758]
本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
論文 参考訳(メタデータ) (2021-01-18T06:38:41Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z) - Biologically-Motivated Deep Learning Method using Hierarchical
Competitive Learning [0.0]
本稿では,CNNの事前学習方法として,前方伝播信号のみを必要とする教師なしの競争学習を導入することを提案する。
提案手法は,例えば時系列や医療データなど,ラベルの粗末なデータに対して有用である。
論文 参考訳(メタデータ) (2020-01-04T20:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。