論文の概要: Forgetting Similar Samples: Can Machine Unlearning Do it Better?
- arxiv url: http://arxiv.org/abs/2601.06938v1
- Date: Sun, 11 Jan 2026 14:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.076472
- Title: Forgetting Similar Samples: Can Machine Unlearning Do it Better?
- Title(参考訳): 類似のサンプルを忘れる - 機械学習はより良くできるのか?
- Authors: Heng Xu, Tianqing Zhu, Dayong Ye, Lefeng Zhang, Le Wang, Wanlei Zhou,
- Abstract要約: 機械学習手法は主に,サンプルがモデルに与える影響を除去するのではなく,サンプルを除去することを目的としている。
トレーニングデータセットには、学習対象と同じようなサンプルが多数含まれている場合、既存の未学習スキームの有効性を評価する。
詳細な分析を行った4つの慎重に構築されたデータセットを用いて実験を行ったところ,既存の未学習手法の期待値と実際の性能との差が顕著であった。
- 参考スコア(独自算出の注目度): 35.26900233614191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning, a process enabling pre-trained models to remove the influence of specific training samples, has attracted significant attention in recent years. Although extensive research has focused on developing efficient machine unlearning strategies, we argue that these methods mainly aim at removing samples rather than removing samples' influence on the model, thus overlooking the fundamental definition of machine unlearning. In this paper, we first conduct a comprehensive study to evaluate the effectiveness of existing unlearning schemes when the training dataset includes many samples similar to those targeted for unlearning. Specifically, we evaluate: Do existing unlearning methods truly adhere to the original definition of machine unlearning and effectively eliminate all influence of target samples when similar samples are present in the training dataset? Our extensive experiments, conducted on four carefully constructed datasets with thorough analysis, reveal a notable gap between the expected and actual performance of most existing unlearning methods for image and language models, even for the retraining-from-scratch baseline. Additionally, we also explore potential solutions to enhance current unlearning approaches.
- Abstract(参考訳): 機械学習は、事前訓練されたモデルが特定のトレーニングサンプルの影響を除去することを可能にするプロセスであり、近年大きな注目を集めている。
大規模な研究は、効率的な機械学習戦略の開発に重点を置いているが、これらの手法は、主にサンプルがモデルに与える影響を除去するのではなく、サンプルを除去することを目的としており、したがって機械学習の基本的定義を見落としている。
本稿では,学習対象と同じような多くのサンプルを含む学習データセットにおいて,既存の未学習スキームの有効性を評価するための総合的研究を行う。
既存のアンラーニング手法は、マシンアンラーニングの本来の定義に真に固執し、トレーニングデータセットに類似のサンプルが存在する場合、ターゲットサンプルの影響をすべて効果的に排除するのか?
詳細な分析を施した4つの慎重に構築されたデータセットを用いて実施した広範囲な実験により、画像と言語モデルに対する既存の未学習手法の期待と実際の性能の差が明らかとなった。
さらに、現在のアンラーニングアプローチを強化する潜在的なソリューションについても検討しています。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Zero-Shot Machine Unlearning with Proxy Adversarial Data Generation [23.668928015009087]
機械学習は、訓練されたモデルから特定のサンプルの影響を取り除くことを目的としている。
既存の未学習アルゴリズムは、この問題を防ぐために残りのデータに依存する。
本稿では,このギャップを埋めるための新しいフレームワークであるZS-PAGを提案する。
論文 参考訳(メタデータ) (2025-07-29T12:16:55Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Evaluating of Machine Unlearning: Robustness Verification Without Prior Modifications [15.257558809246524]
Unlearningは、事前トレーニングされたモデルが特定のトレーニングサンプルの影響を取り除くことができるプロセスである。
既存の検証方法は、メンバシップ推論攻撃(MIA)やバックドア攻撃のような機械学習攻撃技術に依存している。
本稿では,事前の修正を伴わない新しい検証手法を提案し,より大規模な検証を支援する。
論文 参考訳(メタデータ) (2024-10-14T03:19:14Z) - Instance-Level Difficulty: A Missing Perspective in Machine Unlearning [13.052520843129363]
完全インスタンスレベルのアンラーニング性能分析により,機械学習を困難にさせる難易度について検討する。
特に,データポイントの学習を困難にする4つの要因を要約する。
機械学習の研究は、未学習のインスタンスレベルの難しさに注意を払うべきだと我々は主張する。
論文 参考訳(メタデータ) (2024-10-03T23:41:42Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Distilled Datamodel with Reverse Gradient Matching [74.75248610868685]
オフライントレーニングとオンライン評価段階を含む,データ影響評価のための効率的なフレームワークを提案する。
提案手法は, 直接再学習法と比較して, プロセスの大幅な高速化を図りながら, 同等のモデル行動評価を実現する。
論文 参考訳(メタデータ) (2024-04-22T09:16:14Z) - Contrastive Unlearning: A Contrastive Approach to Machine Unlearning [30.38966646250252]
本研究では,表現学習の概念を有効活用する,対照的な非学習フレームワークを提案する。
その結果,非学習の非学習効果と効率性は,最先端のアルゴリズムと比較して低い結果が得られた。
論文 参考訳(メタデータ) (2024-01-19T02:16:30Z) - Machine Unlearning for Causal Inference [0.6621714555125157]
モデルが与えられたユーザに関する情報(マシンアンラーニング)の学習/取得の一部を忘れることが重要である。
本稿では、因果推論のための機械学習の概念、特に確率スコアマッチングと治療効果推定について紹介する。
この研究で使用されるデータセットは、ジョブトレーニングプログラムの有効性を評価するために広く使用されているデータセットであるLalondeデータセットである。
論文 参考訳(メタデータ) (2023-08-24T17:27:01Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。