論文の概要: Efficient Machine Unlearning by Model Splitting and Core Sample Selection
- arxiv url: http://arxiv.org/abs/2505.07026v1
- Date: Sun, 11 May 2025 15:42:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.165632
- Title: Efficient Machine Unlearning by Model Splitting and Core Sample Selection
- Title(参考訳): モデル分割とコアサンプル選択による効率的な機械学習
- Authors: Maximilian Egger, Rawad Bitar, Rüdiger Urbanke,
- Abstract要約: 我々は、より効率的で正確なアンラーニング戦略を可能にする標準のアンラーニング指標の変種を導入する。
また、多くの場合、正確な未学習を可能にする未学習の訓練手順も提示する。
正確なアンラーニングが実現不可能な場合、MaxRRは、完全なリトレーニングによって達成されたプロパティと密接にマッチした、効率的なアンラーニングをサポートします。
- 参考スコア(独自算出の注目度): 4.634454848598446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning is essential for meeting legal obligations such as the right to be forgotten, which requires the removal of specific data from machine learning models upon request. While several approaches to unlearning have been proposed, existing solutions often struggle with efficiency and, more critically, with the verification of unlearning - particularly in the case of weak unlearning guarantees, where verification remains an open challenge. We introduce a generalized variant of the standard unlearning metric that enables more efficient and precise unlearning strategies. We also present an unlearning-aware training procedure that, in many cases, allows for exact unlearning. We term our approach MaxRR. When exact unlearning is not feasible, MaxRR still supports efficient unlearning with properties closely matching those achieved through full retraining.
- Abstract(参考訳): 機械学習は忘れられる権利などの法的義務を満たすために不可欠であり、要求に応じて機械学習モデルから特定のデータを除去する必要がある。
アンラーニングに対するいくつかのアプローチが提案されているが、既存のソリューションは効率性に苦しむことが多く、さらに重要なのは、アンラーニングの検証である。
我々は、より効率的で正確なアンラーニング戦略を可能にする標準のアンラーニング指標の一般化された変種を導入する。
また、多くの場合、正確な未学習を可能にする未学習の訓練手順も提示する。
アプローチをMaxRRと呼びます。
正確なアンラーニングが実現不可能な場合、MaxRRは、完全なリトレーニングによって達成されたプロパティと密接にマッチした、効率的なアンラーニングをサポートします。
関連論文リスト
- Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - UnUnlearning: Unlearning is not sufficient for content regulation in advanced generative AI [50.61495097098296]
大規模言語モデル(LLM)におけるアンラーニングのパラダイムを再考する。
未学習の概念を導入し、未学習の知識を文脈内で再導入する。
我々は、不寛容な知識に対するコンテンツフィルタリングが不可欠であり、正確な未学習スキームでさえ、効果的なコンテンツ規制には不十分であると主張している。
論文 参考訳(メタデータ) (2024-06-27T10:24:35Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Unlearnable Algorithms for In-context Learning [36.895152458323764]
本稿では,事前訓練された大規模言語モデルのタスク適応フェーズに対する効率的なアンラーニング手法に着目した。
タスク適応のための文脈内学習を行うLLMの能力は、タスク適応トレーニングデータの効率的なアンラーニングを可能にする。
本稿では,様々な推論コストを考慮に入れた非学習コストの包括的尺度を提案する。
論文 参考訳(メタデータ) (2024-02-01T16:43:04Z) - Model Sparsity Can Simplify Machine Unlearning [33.18951938708467]
最近のデータ規制要件に応えて、マシン・アンラーニング(MU)が重要なプロセスとして登場した。
本研究は,ウェイトプルーニングによるモデルスペーシフィケーションという,新しいモデルベース視点を紹介する。
理論と実践の両方において、モデルスパーシティは、近似アンラーナーのマルチ基準アンラーニング性能を高めることができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:12:02Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。