論文の概要: Towards Unbounded Machine Unlearning
- arxiv url: http://arxiv.org/abs/2302.09880v3
- Date: Mon, 30 Oct 2023 10:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 03:57:21.524545
- Title: Towards Unbounded Machine Unlearning
- Title(参考訳): アンバウンドマシン・アンラーニングに向けて
- Authors: Meghdad Kurmanji, Peter Triantafillou, Jamie Hayes, Eleni
Triantafillou
- Abstract要約: 我々は,異なるアプリケーション (RB, RC, UP) に対するアンラーニングを,それぞれ独自のデシラタ,忘れるための定義,および品質を忘れるための関連する指標をもって研究する。
UPでは,非学習者に対する強力なメンバーシップ推論攻撃の新たな適応を提案する。
また、RB, RC, UPの異なるアプリケーション依存メトリクス間で品質を忘れる上で、一貫してトップパフォーマーである新しいアンラーニングアルゴリズムであるSCRUBを提案する。
- 参考スコア(独自算出の注目度): 13.31957848633701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep machine unlearning is the problem of `removing' from a trained neural
network a subset of its training set. This problem is very timely and has many
applications, including the key tasks of removing biases (RB), resolving
confusion (RC) (caused by mislabelled data in trained models), as well as
allowing users to exercise their `right to be forgotten' to protect User
Privacy (UP). This paper is the first, to our knowledge, to study unlearning
for different applications (RB, RC, UP), with the view that each has its own
desiderata, definitions for `forgetting' and associated metrics for forget
quality. For UP, we propose a novel adaptation of a strong Membership Inference
Attack for unlearning. We also propose SCRUB, a novel unlearning algorithm,
which is the only method that is consistently a top performer for forget
quality across the different application-dependent metrics for RB, RC, and UP.
At the same time, SCRUB is also consistently a top performer on metrics that
measure model utility (i.e. accuracy on retained data and generalization), and
is more efficient than previous work. The above are substantiated through a
comprehensive empirical evaluation against previous state-of-the-art.
- Abstract(参考訳): ディープラーニングアンラーニング(deep machine unlearning)は、トレーニングセットのサブセットであるトレーニングされたニューラルネットワークから‘削除’する問題である。
この問題は、非常にタイムリーで、多くのアプリケーションがあり、バイアス(rb)の除去、混乱解消(rc)(トレーニングされたモデルの誤ったラベルデータによって引き起こされる)、ユーザープライバシを保護するためにユーザの‘忘れられる権利’を行使すること(up)といった重要なタスクがあります。
本論文は,異なるアプリケーション(rb,rc,up)のアンラーニングについて,それぞれが独自のデシデラタ,‘フォーゲッティング’の定義,品質を忘れるための関連するメトリクスを持っているという観点から,我々の知識に対して初めて行うものである。
UPでは,非学習者に対する強力なメンバーシップ推論攻撃の新たな適応を提案する。
また、rb、rc、upの異なるアプリケーション依存のメトリクスにおいて、品質を忘れてしまっている唯一の方法である、新しいアンラーニングアルゴリズムであるscruを提案する。
同時に、SCRUBはモデルユーティリティ(すなわち保持されたデータと一般化の正確性)を測定する指標上でも一貫してトップパフォーマーであり、以前の作業よりも効率的である。
以上は、これまでの最先端技術に対する総合的な実証的評価によって裏付けられている。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - Task-Aware Machine Unlearning and Its Application in Load Forecasting [4.00606516946677]
本稿では、すでに訓練済みの予測器に対するデータセットの一部の影響を除去するために特別に設計された機械学習の概念を紹介する。
局所モデルパラメータ変化の感度を影響関数とサンプル再重み付けを用いて評価することにより,性能認識アルゴリズムを提案する。
リアルな負荷データセットを用いて,線形,CNN,Mixerベースの負荷予測器上で,未学習アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-08-28T08:50:12Z) - KGA: A General Machine Unlearning Framework Based on Knowledge Gap
Alignment [51.15802100354848]
我々は,忘れやすさを誘発する一般学習フレームワークKGAを提案する。
大規模なデータセットの実験は、KGAがベースラインよりも包括的な改善をもたらすことを示している。
論文 参考訳(メタデータ) (2023-05-11T02:44:29Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Evaluating Inexact Unlearning Requires Revisiting Forgetting [14.199668091405064]
IC(Interclass Confusion)と呼ばれる,忘れ度を計測する新しいテストを導入する。
ブラックボックステストであるにもかかわらず、ICは削除セットからの情報がネットワークの初期層まで消去されたかどうかを調べることができる。
ネットワークの最終k層を破滅的に偽造する2つの単純なアンラーニング手法が、従来のアンラーニング方法と異なり、大きな削除セットにうまくスケールできることを実証的に示す。
論文 参考訳(メタデータ) (2022-01-17T21:49:21Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。