論文の概要: LoReUn: Data Itself Implicitly Provides Cues to Improve Machine Unlearning
- arxiv url: http://arxiv.org/abs/2507.22499v1
- Date: Wed, 30 Jul 2025 09:12:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.108473
- Title: LoReUn: Data Itself Implicitly Provides Cues to Improve Machine Unlearning
- Title(参考訳): LoReun: 機械学習を改善するためのヒントを提供するデータ
- Authors: Xiang Li, Qianli Shen, Haonan Wang, Kenji Kawaguchi,
- Abstract要約: Loss-based Reweighting Unlearning(LoReUn)は、未学習プロセス中に、計算オーバーヘッドを最小限に抑えて動的にデータをリウェイトするプラグイン・アンド・プレイ戦略である。
提案手法は,既存のMU手法と画像分類タスクと生成タスクの正確なアンラーニングのギャップを著しく低減する。
- 参考スコア(独自算出の注目度): 33.62466543549043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent generative models face significant risks of producing harmful content, which has underscored the importance of machine unlearning (MU) as a critical technique for eliminating the influence of undesired data. However, existing MU methods typically assign the same weight to all data to be forgotten, which makes it difficult to effectively forget certain data that is harder to unlearn than others. In this paper, we empirically demonstrate that the loss of data itself can implicitly reflect its varying difficulty. Building on this insight, we introduce Loss-based Reweighting Unlearning (LoReUn), a simple yet effective plug-and-play strategy that dynamically reweights data during the unlearning process with minimal additional computational overhead. Our approach significantly reduces the gap between existing MU methods and exact unlearning in both image classification and generation tasks, effectively enhancing the prevention of harmful content generation in text-to-image diffusion models.
- Abstract(参考訳): 近年の生成モデルは有害なコンテンツを生み出す重大なリスクに直面しており、望ましくないデータの影響を排除するための重要な手法として、マシン・アンラーニング(MU)の重要性が強調されている。
しかし、既存のMUメソッドでは、忘れられるすべてのデータに同じ重みを割り当てるのが一般的である。
本稿では,データ自体の喪失が,その難しさを暗黙的に反映できることを実証的に示す。
この知見に基づいて、我々はLos-based Reweighting Unlearning (LoReUn)を紹介した。LoReUnは、最小の計算オーバーヘッドで、アンラーニングプロセス中にデータを動的にリウェイトする、シンプルで効果的なプラグアンドプレイ戦略である。
提案手法は,既存のMU手法と画像分類と生成タスクにおける正確なアンラーニングのギャップを大幅に減らし,テキストから画像への拡散モデルにおける有害なコンテンツ生成の防止を効果的に促進する。
関連論文リスト
- UNO: Unlearning via Orthogonalization in Generative models [0.0]
我々のアルゴリズムは、元のモデルの忠実さを維持しながらデータを忘れることができることを示す。
MNISTとCelebAデータを用いて、我々のアルゴリズムが前者よりもはるかに高速な未学習時間を達成することを示す。
論文 参考訳(メタデータ) (2025-06-05T07:37:02Z) - Adversarial Mixup Unlearning [16.89710766008491]
合成ミキサアップサンプルを利用して、未学習プロセスの正規化を行う新しい手法を提案する。
私たちのアプローチの核心は、ジェネレータアンリアナーフレームワークであるMixUnlearnです。
本手法は最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-14T16:50:33Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - SalUn: Empowering Machine Unlearning via Gradient-based Weight Saliency in Both Image Classification and Generation [30.168665935074166]
本稿では,機械学習における「重み値」の概念を導入し,モデル説明における入力値値と並列性について述べる。
サリエンシ・アンラーニング(SalUn)と呼ばれる結果の手法は、パフォーマンスのギャップを「正確な」アンラーニングで狭める。
SalUnは、画像分類と生成タスクの両方において、データ、クラス、概念を忘れることの影響を効果的に消すことができる最初の原則MUアプローチである。
論文 参考訳(メタデータ) (2023-10-19T06:17:17Z) - Generative Adversarial Networks Unlearning [13.342749941357152]
機械学習は、訓練された機械学習モデルからトレーニングデータを消去するソリューションとして登場した。
GAN(Generative Adversarial Networks)の研究は、ジェネレータと識別器を含む独自のアーキテクチャによって制限されている。
本稿では,GANモデルにおける項目学習とクラス学習の両方を対象としたケースドアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T02:21:21Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。