論文の概要: IMU: Influence-guided Machine Unlearning
- arxiv url: http://arxiv.org/abs/2508.01620v2
- Date: Fri, 15 Aug 2025 04:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.544167
- Title: IMU: Influence-guided Machine Unlearning
- Title(参考訳): IMU:インフルエンス誘導型機械アンラーニング
- Authors: Xindi Fan, Jing Wu, Mingyi Zhou, Pengwei Liang, Dinh Phung,
- Abstract要約: マシン・アンラーニング(MU)は、要求に応じて特定のデータポイントを選択的に忘れることを可能にする。
既存のMUアルゴリズムの多くは、保持セットに部分的または完全な微調整を必要とする。
本稿では,インフルエンス誘導型機械学習(IMU)を提案する。
- 参考スコア(独自算出の注目度): 12.87795856802456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that deep learning models are vulnerable to attacks and tend to memorize training data points, raising significant concerns about privacy leakage. This motivates the development of machine unlearning (MU), i.e., a paradigm that enables models to selectively forget specific data points upon request. However, most existing MU algorithms require partial or full fine-tuning on the retain set. This necessitates continued access to the original training data, which is often impractical due to privacy concerns and storage constraints. A few retain-data-free MU methods have been proposed, but some rely on access to auxiliary data and precomputed statistics of the retain set, while others scale poorly when forgetting larger portions of data. In this paper, we propose Influence-guided Machine Unlearning (IMU), a simple yet effective method that conducts MU using only the forget set. Specifically, IMU employs gradient ascent and innovatively introduces dynamic allocation of unlearning intensities across different data points based on their influences. This adaptive strategy significantly enhances unlearning effectiveness while maintaining model utility. Results across vision and language tasks demonstrate that IMU consistently outperforms existing retain-data-free MU methods.
- Abstract(参考訳): 近年の研究では、ディープラーニングモデルは攻撃に対して脆弱であり、トレーニングデータポイントを記憶する傾向があることが示されており、プライバシリークに関する重大な懸念が提起されている。
これは、機械学習(MU)、すなわちモデルが要求に応じて特定のデータポイントを選択的に忘れることができるパラダイムの開発を動機付けている。
しかし、既存のMUアルゴリズムの多くは、保持セットに部分的または完全な微調整を必要とする。
これは、プライバシの懸念とストレージの制約のために、しばしば非現実的なオリジナルのトレーニングデータへのアクセスを継続する必要がある。
保持データのないMU法はいくつか提案されているが、補助データへのアクセスと保持集合の事前計算統計に頼っているものもある。
本稿では,インフルエンサー誘導型機械学習(IMU)を提案する。
特に、IMUは勾配上昇を採用し、その影響に基づき、異なるデータポイントにまたがる非学習強度の動的割り当てを革新的に導入している。
この適応戦略は、モデルユーティリティを維持しながら、未学習の有効性を大幅に向上させる。
視覚と言語タスクにわたる結果は、IMUが既存のRetain-data-free MUメソッドを一貫して上回っていることを示している。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - LoReUn: Data Itself Implicitly Provides Cues to Improve Machine Unlearning [33.62466543549043]
Loss-based Reweighting Unlearning(LoReUn)は、未学習プロセス中に、計算オーバーヘッドを最小限に抑えて動的にデータをリウェイトするプラグイン・アンド・プレイ戦略である。
提案手法は,既存のMU手法と画像分類タスクと生成タスクの正確なアンラーニングのギャップを著しく低減する。
論文 参考訳(メタデータ) (2025-07-30T09:12:25Z) - SEMU: Singular Value Decomposition for Efficient Machine Unlearning [9.61813564612515]
マシン・アンラーニング(MU)は、今後の安全規則を満たすためにますます重要になっている。
効率的な機械学習(SEMU)のための特異値分解法を提案する。
SEMUは変更が必要なモデルパラメータの数を最小限に抑え、不要な知識を効果的に除去する。
論文 参考訳(メタデータ) (2025-02-11T14:36:39Z) - Deep Unlearn: Benchmarking Machine Unlearning for Image Classification [7.450700594277741]
機械学習(MU)は、訓練された機械学習モデルの学習可能なパラメータから、特定のデータポイントの影響を取り除くことを目的としている。
本稿では,様々なベンチマークデータセットおよびモデルを対象とした18種類の最先端MU手法について検討する。
論文 参考訳(メタデータ) (2024-10-02T06:41:58Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Challenging Forgets: Unveiling the Worst-Case Forget Sets in Machine Unlearning [9.998859702421417]
マシン・アンラーニング(MU)は、選択したデータポイントがモデルの性能に与える影響を排除することを目的としている。
データ影響消去のための様々なMU手法にもかかわらず、評価は主にランダムなデータの忘れ方に焦点を当てている。
本稿では,影響消去の最も重要な課題を示すデータサブセットの同定を提案する。
論文 参考訳(メタデータ) (2024-03-12T06:50:32Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - FRAMU: Attention-based Machine Unlearning using Federated Reinforcement
Learning [16.86560475992975]
FRAMU(Federated Reinforcement Learning)を用いた注意型機械学習について紹介する。
FRAMUには適応学習機構、プライバシー保護技術、最適化戦略が組み込まれている。
実験の結果,FRAMUはベースラインモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-19T03:13:17Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。