論文の概要: Dataset Condensation Driven Machine Unlearning
- arxiv url: http://arxiv.org/abs/2402.00195v1
- Date: Wed, 31 Jan 2024 21:48:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 17:27:59.703242
- Title: Dataset Condensation Driven Machine Unlearning
- Title(参考訳): データセット凝縮駆動型マシンアンラーニング
- Authors: Junaid Iqbal Khan
- Abstract要約: データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
我々は,機械学習のプライバシ,ユーティリティ,効率のバランスをとるために,新しいデータセット凝縮手法と革新的なアンラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The current trend in data regulation requirements and privacy-preserving
machine learning has emphasized the importance of machine unlearning. The naive
approach to unlearning training data by retraining over the complement of the
forget samples is susceptible to computational challenges. These challenges
have been effectively addressed through a collection of techniques falling
under the umbrella of machine unlearning. However, there still exists a lack of
sufficiency in handling persistent computational challenges in harmony with the
utility and privacy of unlearned model. We attribute this to the lack of work
on improving the computational complexity of approximate unlearning from the
perspective of the training dataset. In this paper, we aim to fill this gap by
introducing dataset condensation as an essential component of machine
unlearning in the context of image classification. To achieve this goal, we
propose new dataset condensation techniques and an innovative unlearning scheme
that strikes a balance between machine unlearning privacy, utility, and
efficiency. Furthermore, we present a novel and effective approach to
instrumenting machine unlearning and propose its application in defending
against membership inference and model inversion attacks. Additionally, we
explore a new application of our approach, which involves removing data from
`condensed model', which can be employed to quickly train any arbitrary model
without being influenced by unlearning samples.
- Abstract(参考訳): データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
余分なサンプルを再学習することで、非学習的なトレーニングデータに対する単純なアプローチは、計算上の課題に影響を受けやすい。
これらの課題は、機械学習の傘の下に落ちるテクニックの集合を通じて、効果的に対処されてきた。
しかしながら、未学習モデルの実用性とプライバシと調和して、永続的な計算上の課題に対処する上で、十分性が欠如している。
これは,学習データセットの観点から,近似学習の計算複雑性を改善するための作業の欠如を特徴としている。
本稿では,画像分類の文脈において,機械学習の重要な要素としてデータセットの凝縮を導入することで,このギャップを埋めることを目的とする。
この目的を達成するために,新しいデータセットの凝縮技術と,機械学習のプライバシ,ユーティリティ,効率のバランスを取る革新的なアンラーニング手法を提案する。
さらに,マシンアンラーニングのための新しい効果的な手法を提案するとともに,メンバシップ推論やモデルインバージョンアタックに対する防御への応用を提案する。
さらに,非学習サンプルの影響を受けずに任意のモデルの迅速なトレーニングを行う 'condensed model' からデータを削除するという,新たなアプローチの適用方法について検討する。
関連論文リスト
- Towards Independence Criterion in Machine Unlearning of Features and
Labels [9.790684060172662]
この研究は、分散シフトに直面した機械学習の複雑さを掘り下げるものだ。
本研究は、これらの課題に対処するために、影響関数と分布独立の原理を活用する新しいアプローチを導入する。
提案手法は, 効率的なデータ除去を容易にするだけでなく, モデルを動的に調整し, 一般化機能を維持する。
論文 参考訳(メタデータ) (2024-03-12T23:21:09Z) - Efficient Knowledge Deletion from Trained Models through Layer-wise
Partial Machine Unlearning [2.3496568239538083]
本稿では,機械学習アルゴリズムの新たなクラスを紹介する。
第1の方法は、アンネシアック・アンラーニングであり、アンネシアック・アンラーニングとレイヤーワイズ・プルーニングの統合である。
第2の方法は、階層的な部分更新をラベルフリップと最適化に基づくアンラーニングに同化する。
論文 参考訳(メタデータ) (2024-03-12T12:49:47Z) - Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Machine unlearning through fine-grained model parameters perturbation [29.1171391789129]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - DUCK: Distance-based Unlearning via Centroid Kinematics [42.642008092347986]
本研究は,Centroid Kinematics (DUCK) による遠隔学習(Distance-based Unlearning)と呼ばれる新しいアンラーニングアルゴリズムを導入する。
アルゴリズムの性能評価は、様々なベンチマークデータセットにまたがって行われる。
対象データを忘れる際の未学習プロセスの有効性だけでなく,元のモデルに対する性能損失の定量化も含む,適応未学習スコア(Adaptive Unlearning Score, AUS)と呼ばれる新しいメトリクスを導入する。
論文 参考訳(メタデータ) (2023-12-04T17:10:25Z) - Generative Adversarial Networks Unlearning [13.342749941357152]
機械学習は、訓練された機械学習モデルからトレーニングデータを消去するソリューションとして登場した。
GAN(Generative Adversarial Networks)の研究は、ジェネレータと識別器を含む独自のアーキテクチャによって制限されている。
本稿では,GANモデルにおける項目学習とクラス学習の両方を対象としたケースドアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T02:21:21Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。