論文の概要: Remember What You Want to Forget: Algorithms for Machine Unlearning
- arxiv url: http://arxiv.org/abs/2103.03279v1
- Date: Thu, 4 Mar 2021 19:28:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:04:09.032800
- Title: Remember What You Want to Forget: Algorithms for Machine Unlearning
- Title(参考訳): 忘れたいことを思い出す: 機械学習のためのアルゴリズム
- Authors: Ayush Sekhari, Jayadev Acharya, Gautam Kamath, Ananda Theertha Suresh
- Abstract要約: 学習モデルからデータポイントを忘れる問題について検討する。
最大$O(n/d1/4)のサンプルを削除できるアンラーニングアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 37.656345901739506
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study the problem of forgetting datapoints from a learnt model. In this
case, the learner first receives a dataset $S$ drawn i.i.d. from an unknown
distribution, and outputs a predictor $w$ that performs well on unseen samples
from that distribution. However, at some point in the future, any training data
point $z \in S$ can request to be unlearned, thus prompting the learner to
modify its output predictor while still ensuring the same accuracy guarantees.
In our work, we initiate a rigorous study of machine unlearning in the
population setting, where the goal is to maintain performance on the unseen
test loss. We then provide unlearning algorithms for convex loss functions.
For the setting of convex losses, we provide an unlearning algorithm that can
delete up to $O(n/d^{1/4})$ samples, where $d$ is the problem dimension. In
comparison, in general, differentially private learningv(which implies
unlearning) only guarantees deletion of $O(n/d^{1/2})$ samples. This shows that
unlearning is at least polynomially more efficient than learning privately in
terms of dependence on $d$ in the deletion capacity.
- Abstract(参考訳): 学習モデルからデータポイントを忘れる問題について検討する。
この場合、学習者はまずデータセット$S$ drawing i.i.dを受け取る。
未知の分布から出力し、その分布から見当たらないサンプルでうまく機能する予測値 $w$ を出力します。
しかし、将来のある時点では、任意のトレーニングデータポイント$z \in S$は、未学習を要求できるため、学習者は、同じ精度の保証を保ちながら、出力予測を変更できる。
本研究は,人口環境における機械学習の厳密な研究を開始し,その目的は,目に見えないテスト損失に対するパフォーマンスを維持することである。
次に,凸損失関数の学習アルゴリズムを提供する。
凸損失の設定については、最大$o(n/d^{1/4})$サンプルを削除できる未学習アルゴリズムを提供し、ここで$d$が問題次元である。
対照的に、一般に、差分的プライベート学習v(非学習を意味する)は$O(n/d^{1/2})$サンプルの削除のみを保証する。
これは、非学習が、削除能力の$d$への依存の観点からプライベートに学習するよりも少なくとも多項式に効率的であることを示している。
関連論文リスト
- Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization [65.8915778873691]
条件分布は機械学習の中心的な問題です
ペアデータとペアデータの両方を統合する新しい学習パラダイムを提案する。
我々のアプローチはまた、興味深いことに逆エントロピー最適輸送(OT)と結びついている。
論文 参考訳(メタデータ) (2024-10-03T16:12:59Z) - Certified Minimax Unlearning with Generalization Rates and Deletion Capacity [28.998771902033003]
ミニマックスモデルに対する$(epsilon,delta)$-certified machine unlearningの問題について検討する。
我々は,全ヘッセン語に基づく完全更新のための,新しいミニマックスアンラーニングステップを開発する。
論文 参考訳(メタデータ) (2023-12-16T06:03:23Z) - Testable Learning with Distribution Shift [9.036777309376697]
分散シフトを伴うテスト可能学習と呼ばれる新しいモデルを定義する。
テスト分布上の分類器の性能を証明可能なアルゴリズムを得る。
ハーフスペースやハーフスペースの交点,決定木といった概念クラスを学ぶ上で,いくつかの肯定的な結果が得られる。
論文 参考訳(メタデータ) (2023-11-25T23:57:45Z) - Self-Directed Linear Classification [50.659479930171585]
オンライン分類では、学習者は、誤りの総数を最小限に抑えるために、オンラインでラベルを予測することを目的としている。
そこで本研究では,予測順序の選択能力について検討し,最低次学習とランダム次学習の分離を初めて確立する。
論文 参考訳(メタデータ) (2023-08-06T15:38:44Z) - Data Structures for Density Estimation [66.36971978162461]
p$のサブリニア数($n$)が与えられた場合、主な結果は$k$のサブリニアで$v_i$を識別する最初のデータ構造になります。
また、Acharyaなどのアルゴリズムの改良版も提供します。
論文 参考訳(メタデータ) (2023-06-20T06:13:56Z) - Omnipredictors [19.735769148626588]
ロス最小化は機械学習において支配的なパラダイムである。
我々は家族の損失を最適化するために使用できる$mathcalL,mathcalC$)-omnipredictorの概念を紹介した。
このような「余分な知識」の学習は、多重校正とのつながりを通して実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-11T23:28:49Z) - Mediated Uncoupled Learning: Learning Functions without Direct
Input-output Correspondences [80.95776331769899]
ペア化されたデータがない場合、$X$から$Y$を予測するタスクを考えます。
単純なアプローチは、$S_X$で$U$から$U$を予測し、$S_Y$で$U$から$Y$を予測することである。
我々は$U$を予測しない新しい方法を提案するが、$f(X)$と$S_X$をトレーニングすることで$Y = f(X)$を直接学習し、$h(U)$を予測する。
論文 参考訳(メタデータ) (2021-07-16T22:13:29Z) - Exponential Weights Algorithms for Selective Learning [39.334633118161285]
本稿では,Qiao と Valiant が導入した選択学習問題について考察する。
学習者が引き起こす余剰リスクは、これらの$w$のデータポイントに対する$hatellの損失の平均値の差として定義される。
また,長さ$w$の予測ウィンドウが選択された場合,学習者の判断は最新の$w$のデータポイントにのみ依存する。
論文 参考訳(メタデータ) (2021-06-29T18:14:01Z) - Agnostic learning with unknown utilities [70.14742836006042]
現実世界の多くの問題において、決定の効用は基礎となる文脈である$x$ と decision $y$ に依存する。
我々はこれを未知のユーティリティによる不可知学習として研究する。
サンプルされた点のみのユーティリティを推定することで、よく一般化した決定関数を学習できることを示す。
論文 参考訳(メタデータ) (2021-04-17T08:22:04Z) - Sample Complexity of Adversarially Robust Linear Classification on
Separated Data [41.30425613353595]
対向的堅牢性を伴う学習の複雑さについて考察する。
非常に分離されたデータの場合、$o(frac1n)$の収束率は達成可能である。
論文 参考訳(メタデータ) (2020-12-19T22:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。