論文の概要: Random Relabeling for Efficient Machine Unlearning
- arxiv url: http://arxiv.org/abs/2305.12320v1
- Date: Sun, 21 May 2023 02:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 21:22:31.482097
- Title: Random Relabeling for Efficient Machine Unlearning
- Title(参考訳): 効率的な機械学習のためのランダムリラベリング
- Authors: Junde Li and Swaroop Ghosh
- Abstract要約: 個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
- 参考スコア(独自算出の注目度): 8.871042314510788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning algorithms and data are the driving forces for machine learning to
bring about tremendous transformation of industrial intelligence. However,
individuals' right to retract their personal data and relevant data privacy
regulations pose great challenges to machine learning: how to design an
efficient mechanism to support certified data removals. Removal of previously
seen data known as machine unlearning is challenging as these data points were
implicitly memorized in training process of learning algorithms. Retraining
remaining data from scratch straightforwardly serves such deletion requests,
however, this naive method is not often computationally feasible. We propose
the unlearning scheme random relabeling, which is applicable to generic
supervised learning algorithms, to efficiently deal with sequential data
removal requests in the online setting. A less constraining removal
certification method based on probability distribution similarity with naive
unlearning is further developed for logit-based classifiers.
- Abstract(参考訳): 学習アルゴリズムとデータは、機械学習が産業インテリジェンスの巨大な変革をもたらす原動力である。
しかし、個人が個人データや関連するデータプライバシー規則を撤回する権利は、機械学習にとって大きな課題となる。
機械学習として知られるデータの削除は、これらのデータポイントが学習アルゴリズムのトレーニングプロセスにおいて暗黙的に記憶されているため、難しい。
残ったデータをスクラッチから簡単に再トレーニングすることは、そのような削除要求に役立つが、このナイーブな方法は計算上は実現できないことが多い。
本研究では,オンライン環境での逐次データ削除要求を効率的に処理するために,汎用教師付き学習アルゴリズムに適用可能な学習方式であるunlearning random relabelingを提案する。
さらに,ロジットに基づく分類器に対して,非学習性に類似した確率分布に基づく制約の少ない除去証明法を開発した。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Dataset Condensation Driven Machine Unlearning [0.0]
データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
我々は,機械学習のプライバシ,ユーティリティ,効率のバランスをとるために,新しいデータセット凝縮手法と革新的なアンラーニング手法を提案する。
本稿では,機械のアンラーニングを計測するための新しい効果的なアプローチを提案し,その適用方法として,メンバシップ推論とモデル逆転攻撃の防御を提案する。
論文 参考訳(メタデータ) (2024-01-31T21:48:25Z) - Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Fair Machine Unlearning: Data Removal while Mitigating Disparities [5.724350004671127]
忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-27T10:26:46Z) - Forget Unlearning: Towards True Data-Deletion in Machine Learning [18.656957502454592]
アンラーニングはデータ削除と同等ではなく、「忘れられる権利」を保証していないことを示す。
本稿では,オンライン環境での精度,計算効率,セキュアなデータ削除機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-17T10:06:11Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Machine Unlearning: Linear Filtration for Logit-based Classifiers [2.174931329479201]
最近制定された法律では、個人が自分の個人データがどんな風に使用されるかを決める権利を付与している。
これは、個人がデータの使用許可を取り除いた場合、どのように進むかという機械学習に挑戦する。
論文 参考訳(メタデータ) (2020-02-07T12:16:06Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。