論文の概要: When unlearning is free: leveraging low influence points to reduce computational costs
- arxiv url: http://arxiv.org/abs/2512.05254v1
- Date: Thu, 04 Dec 2025 21:10:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.81318
- Title: When unlearning is free: leveraging low influence points to reduce computational costs
- Title(参考訳): アンラーニングが自由である場合-低影響点を活用して計算コストを削減する
- Authors: Anat Kleiman, Robert Fisher, Ben Deaner, Udi Wieder,
- Abstract要約: モデルの学習に無視できる影響を持つポイントを除去する必要があるかどうかを問う。
学習前にデータセットのサイズを削減できる効率的な学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.2844524343936794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As concerns around data privacy in machine learning grow, the ability to unlearn, or remove, specific data points from trained models becomes increasingly important. While state of the art unlearning methods have emerged in response, they typically treat all points in the forget set equally. In this work, we challenge this approach by asking whether points that have a negligible impact on the model's learning need to be removed. Through a comparative analysis of influence functions across language and vision tasks, we identify subsets of training data with negligible impact on model outputs. Leveraging this insight, we propose an efficient unlearning framework that reduces the size of datasets before unlearning leading to significant computational savings (up to approximately 50 percent) on real world empirical examples.
- Abstract(参考訳): 機械学習におけるデータのプライバシに関する懸念が高まるにつれ、トレーニングされたモデルから特定のデータポイントを解放、削除する能力がますます重要になる。
最先端の未学習の手法が反応する一方で、彼らは通常、忘れられた集合のすべての点を平等に扱う。
この研究では、モデルの学習に無視できる影響のある点を除去する必要があるかどうかを問うことで、このアプローチに挑戦する。
言語および視覚タスク間の影響関数の比較分析を通じて、モデル出力に無視できない影響を持つ訓練データのサブセットを同定する。
この知見を生かして、学習前にデータセットのサイズを削減し、実世界の実証的な例で計算量を大幅に削減する(最大50%)効率的なアンラーニングフレームワークを提案する。
関連論文リスト
- Z0-Inf: Zeroth Order Approximation for Data Influence [47.682602051124235]
トレーニングデータの影響を推定するための高効率ゼロ階近似を導入する。
提案手法は, 微調整された大規模言語モデルに対して, 自己影響を推定し, 列車試験の影響を推定する上で, 自己影響を推定する上で優れた精度を実現する。
論文 参考訳(メタデータ) (2025-10-13T18:30:37Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - When to Forget? Complexity Trade-offs in Machine Unlearning [23.507879460531264]
Machine Unlearning(MU)は、トレーニングされたモデルから特定のデータポイントの影響を取り除くことを目的としている。
本研究では,非学習手法の効率を解析し,この問題に対するミニマックス時間における第1の上限値と第2の上限値の設定を行う。
未学習度比の位相図 – 最高の未学習手法の計算コストと完全なモデル再学習を比較する新しいメトリクスを提供する。
論文 参考訳(メタデータ) (2025-02-24T16:56:27Z) - Unlearning in- vs. out-of-distribution data in LLMs under gradient-based method [31.268301764230525]
この研究は、生成モデルにおける未学習の品質を評価するための指標を定式化する。
学習しない品質とパフォーマンスのトレードオフを評価するために、それを使用します。
さらに,古典的漸進的アプローチの下で,サンプルの記憶と難易度が未学習にどのように影響するかを評価する。
論文 参考訳(メタデータ) (2024-11-07T03:02:09Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Scaling Laws for the Value of Individual Data Points in Machine Learning [55.596413470429475]
個々のデータポイントの値のスケーリング行動を調べることによって、新しい視点を導入する。
スケーリング法則を支持するための学習理論を提供し、それが様々なモデルクラスにまたがっていることを実証的に観察する。
私たちの研究は、個々のデータポイントの値のスケーリング特性を理解し、活用するための第一歩です。
論文 参考訳(メタデータ) (2024-05-30T20:10:24Z) - An Information Theoretic Approach to Machine Unlearning [43.423418819707784]
AIやデータ規則に従うためには、トレーニングされた機械学習モデルからプライベートまたは著作権のある情報を忘れる必要性がますます高まっている。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。