論文の概要: MCU: Improving Machine Unlearning through Mode Connectivity
- arxiv url: http://arxiv.org/abs/2505.10859v1
- Date: Fri, 16 May 2025 04:56:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.076827
- Title: MCU: Improving Machine Unlearning through Mode Connectivity
- Title(参考訳): MCU: モード接続による機械学習の改善
- Authors: Yingdan Shi, Ren Wang,
- Abstract要約: モード接続を利用して非学習経路を非線形に発見する,MCU(Mode Connectivity Unlearning)と呼ばれる新しいMUフレームワークを提案する。
性能と効率をさらに向上するために,未学習の有効性を向上するだけでなく,計算オーバーヘッドを低減するパラメータマスク戦略を導入する。
- 参考スコア(独自算出の注目度): 1.3731623617634434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Unlearning (MU) aims to remove the information of specific training data from a trained model, ensuring compliance with privacy regulations and user requests. While one line of existing MU methods relies on linear parameter updates via task arithmetic, they suffer from weight entanglement. In this work, we propose a novel MU framework called Mode Connectivity Unlearning (MCU) that leverages mode connectivity to find an unlearning pathway in a nonlinear manner. To further enhance performance and efficiency, we introduce a parameter mask strategy that not only improves unlearning effectiveness but also reduces computational overhead. Moreover, we propose an adaptive adjustment strategy for our unlearning penalty coefficient to adaptively balance forgetting quality and predictive performance during training, eliminating the need for empirical hyperparameter tuning. Unlike traditional MU methods that identify only a single unlearning model, MCU uncovers a spectrum of unlearning models along the pathway. Overall, MCU serves as a plug-and-play framework that seamlessly integrates with any existing MU methods, consistently improving unlearning efficacy. Extensive experiments on the image classification task demonstrate that MCU achieves superior performance.
- Abstract(参考訳): Machine Unlearning(MU)は、トレーニングされたモデルから特定のトレーニングデータの情報を削除し、プライバシ規制やユーザ要求への準拠を保証することを目的としている。
既存のMU手法の1行は、タスク演算による線形パラメータの更新に依存しているが、それらは重みの絡み合いに悩まされている。
本研究では,モード接続を利用して非学習経路を非線形に発見する,MCU(Mode Connectivity Unlearning)と呼ばれる新しいMUフレームワークを提案する。
性能と効率をさらに向上するために,未学習の有効性を向上するだけでなく,計算オーバーヘッドを低減するパラメータマスク戦略を導入する。
さらに,未学習のペナルティ係数を適応的に調整し,学習中の品質と予測性能を適応的にバランスさせ,経験的ハイパーパラメータチューニングの必要性を解消する手法を提案する。
単一の未学習モデルのみを識別する従来のMUメソッドとは異なり、MCUは経路に沿った未学習モデルのスペクトルを明らかにする。
全体として、MCUは既存のMUメソッドとシームレスに統合するプラグイン・アンド・プレイフレームワークとして機能し、未学習の有効性を一貫して改善している。
画像分類タスクに関する大規模な実験は、MCUが優れた性能を発揮することを示す。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Model Sparsity Can Simplify Machine Unlearning [33.18951938708467]
最近のデータ規制要件に応えて、マシン・アンラーニング(MU)が重要なプロセスとして登場した。
本研究は,ウェイトプルーニングによるモデルスペーシフィケーションという,新しいモデルベース視点を紹介する。
理論と実践の両方において、モデルスパーシティは、近似アンラーナーのマルチ基準アンラーニング性能を高めることができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:12:02Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。