論文の概要: Towards Unbounded Machine Unlearning
- arxiv url: http://arxiv.org/abs/2302.09880v1
- Date: Mon, 20 Feb 2023 10:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:50:21.530027
- Title: Towards Unbounded Machine Unlearning
- Title(参考訳): アンバウンドマシン・アンラーニングに向けて
- Authors: Meghdad Kurmanji, Peter Triantafillou, Eleni Triantafillou
- Abstract要約: ディープ・マシン・アンラーニング(Deep Machine Unlearning)は、訓練されたディープ・モデルの重みからデータのコホートの影響を取り除く問題である。
本研究では,新しい非学習アルゴリズム(SCRUB)を提案し,従来の最先端モデルに対して包括的な評価を行う。
- 参考スコア(独自算出の注目度): 7.4901837985281965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep machine unlearning is the problem of removing the influence of a cohort
of data from the weights of a trained deep model. This challenge is enjoying
increasing attention due to the widespread use of neural networks in
applications involving user data: allowing users to exercise their `right to be
forgotten' necessitates an effective unlearning algorithm. However, deleting
data from models is also of interest in practice for other applications where
individual user privacy is not necessarily a consideration: removing biases,
out-of-date examples, outliers, or noisy labels, and different such
applications come with different desiderata. We propose a new unlearning
algorithm (coined SCRUB) and conduct a comprehensive experimental evaluation
against several previous state-of-the-art models. The results reveal that SCRUB
is consistently a top performer across three different metrics for measuring
unlearning quality, reflecting different application scenarios, while not
degrading the model's performance.
- Abstract(参考訳): ディープラーニングアンラーニング(deep machine unlearning)とは、トレーニングされた深層モデルの重みから、データのコホートの影響を取り除く問題である。
この課題は、ユーザデータを含むアプリケーションでニューラルネットワークが広く使用されていることによる注目を集めている。
しかし、モデルからデータを削除することは、個々のユーザのプライバシが必ずしも考慮されていない他のアプリケーションにとって、実践的な関心事である。
本研究では,新しい非学習アルゴリズム(SCRUB)を提案し,従来の最先端モデルに対する総合的な実験評価を行う。
結果は、SCRUBが、モデルのパフォーマンスを劣化させることなく、異なるアプリケーションシナリオを反映しながら、学習されていない品質を測定するための3つのメトリクスで一貫してトップパフォーマーであることを示している。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - Task-Aware Machine Unlearning and Its Application in Load Forecasting [4.00606516946677]
本稿では、すでに訓練済みの予測器に対するデータセットの一部の影響を除去するために特別に設計された機械学習の概念を紹介する。
局所モデルパラメータ変化の感度を影響関数とサンプル再重み付けを用いて評価することにより,性能認識アルゴリズムを提案する。
リアルな負荷データセットを用いて,線形,CNN,Mixerベースの負荷予測器上で,未学習アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-08-28T08:50:12Z) - KGA: A General Machine Unlearning Framework Based on Knowledge Gap
Alignment [51.15802100354848]
我々は,忘れやすさを誘発する一般学習フレームワークKGAを提案する。
大規模なデータセットの実験は、KGAがベースラインよりも包括的な改善をもたらすことを示している。
論文 参考訳(メタデータ) (2023-05-11T02:44:29Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Evaluating Inexact Unlearning Requires Revisiting Forgetting [14.199668091405064]
IC(Interclass Confusion)と呼ばれる,忘れ度を計測する新しいテストを導入する。
ブラックボックステストであるにもかかわらず、ICは削除セットからの情報がネットワークの初期層まで消去されたかどうかを調べることができる。
ネットワークの最終k層を破滅的に偽造する2つの単純なアンラーニング手法が、従来のアンラーニング方法と異なり、大きな削除セットにうまくスケールできることを実証的に示す。
論文 参考訳(メタデータ) (2022-01-17T21:49:21Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。