論文の概要: Machine Unlearning: Linear Filtration for Logit-based Classifiers
- arxiv url: http://arxiv.org/abs/2002.02730v2
- Date: Wed, 8 Jul 2020 06:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 03:51:31.561734
- Title: Machine Unlearning: Linear Filtration for Logit-based Classifiers
- Title(参考訳): 機械学習:logitベースの分類器に対する線形フィルタリング
- Authors: Thomas Baumhauer and Pascal Sch\"ottle and Matthias Zeppelzauer
- Abstract要約: 最近制定された法律では、個人が自分の個人データがどんな風に使用されるかを決める権利を付与している。
これは、個人がデータの使用許可を取り除いた場合、どのように進むかという機械学習に挑戦する。
- 参考スコア(独自算出の注目度): 2.174931329479201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently enacted legislation grants individuals certain rights to decide in
what fashion their personal data may be used, and in particular a "right to be
forgotten". This poses a challenge to machine learning: how to proceed when an
individual retracts permission to use data which has been part of the training
process of a model? From this question emerges the field of machine unlearning,
which could be broadly described as the investigation of how to "delete
training data from models". Our work complements this direction of research for
the specific setting of class-wide deletion requests for classification models
(e.g. deep neural networks). As a first step, we propose linear filtration as a
intuitive, computationally efficient sanitization method. Our experiments
demonstrate benefits in an adversarial setting over naive deletion schemes.
- Abstract(参考訳): 最近制定された法律では、個人が自分の個人データがどんな風に使用されるかを決める権利、特に「忘れられる権利」を付与している。
個人がモデルのトレーニングプロセスの一部であるデータを使用する許可を取り除いた場合、どのように進めばいいのか?
この質問から、機械学習の分野が生まれ、それは「モデルからトレーニングデータを削除」する方法の調査として広く説明できる。
我々の研究は、分類モデル(ディープニューラルネットワークなど)のクラス全体の削除要求の設定に関するこの研究の方向性を補完する。
最初のステップとして,直感的で計算効率の良い衛生手法として線形濾過を提案する。
本実験は,ナイーブ削除スキームに対する敵意設定の利点を示す。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Random Relabeling for Efficient Machine Unlearning [8.871042314510788]
個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
論文 参考訳(メタデータ) (2023-05-21T02:37:26Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Machine Unlearning Method Based On Projection Residual [23.24026891609028]
本稿ではニュートン法に基づく投射残差法を採用する。
主な目的は、線形回帰モデルとニューラルネットワークモデルという文脈で機械学習タスクを実装することである。
実験により, この手法は, モデル再学習に近いデータ削除において, より徹底的な手法であることが確認された。
論文 参考訳(メタデータ) (2022-09-30T07:29:55Z) - Zero-Shot Machine Unlearning [6.884272840652062]
現代のプライバシー規制は、市民に製品、サービス、企業によって忘れられる権利を与える。
トレーニングプロセスやトレーニングサンプルに関連するデータは、未学習の目的のためにアクセスできない。
本稿では, (a) 誤り最小化雑音と (b) ゲート付き知識伝達に基づくゼロショットマシンアンラーニングのための2つの新しい解を提案する。
論文 参考訳(メタデータ) (2022-01-14T19:16:09Z) - Lightweight machine unlearning in neural network [2.406359246841227]
「忘れるべき権利」は、個人が同意に基づいて同意を取り下げる権利を有することを規定して、タイムリーに導入された。
この問題を解決するために、モデルがプライベート情報のすべてのメモリを消去できるマシンアンラーニングを提案する。
我々の方法は再訓練の15倍速い。
論文 参考訳(メタデータ) (2021-11-10T04:48:31Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Certified Data Removal from Machine Learning Models [79.91502073022602]
優れたデータスチュワードシップでは、データ所有者の要求でデータを削除する必要がある。
これにより、トレーニングデータに関する情報を暗黙的に格納するトレーニングされた機械学習モデルが、このような削除要求の影響を受けるべきかどうか、という疑問が提起される。
データを削除したモデルと、最初にデータを観測しなかったモデルとを区別できないという非常に強力な理論的保証である。
論文 参考訳(メタデータ) (2019-11-08T03:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。